/

实习准备知识点总结

自我介绍
seq2seq+Attention
注意力的种类 自注意力 画出来
Transformer
self-attention 与之前的区别
DNN反向传播
梯度下降优化方法(Adam 动量梯度下降)什么是动量
如何解决梯度消失和梯度爆炸
神经网络怎么判断过拟合(dropout 正则) 防止过拟合的方法 L1L2正则区别
语言模型公式
为什么n-gram需要平滑 平滑技术
朴素贝叶斯公式 展开
CRF是什么 和HMM的区别
推logistic回归 交叉熵损失函数 优化目标 #http://blog.wangcaimeng.top/2019/03/05/LogisticRegression-%E9%80%BB%E8%BE%91%E5%9B%9E%E5%BD%92%EF%BC%89%E6%8D%9F%E5%A4%B1%E5%87%BD%E6%95%B0%E6%8E%A8%E5%AF%BC/
决策树 随机森林
GDBT XGBoost
最熟悉的机器学习算法 做过什么
LSTM RNN 画结构 能解决什么问题
预训练与微调
优化方法
“有一个抽奖活动,提前不知道会有多少人抽奖,最后要保证每个人中奖概率一样,且一定有一个人中奖,问我怎么设计抽奖系统”

讲项目

多轮对话生成安全性答案

二叉树逆时针遍历外围 s形
二分查找

1. seq2seq + Attention

在⾃然语⾔处理的很多应⽤中,输⼊和输出都可以是不定⻓序列。