牛肉粒粒
牛肉粒粒
全部文章
分类
面经备忘(7)
归档
标签
去牛客网
登录
/
注册
牛肉粒粒的博客
全部文章
(共7篇)
京东9.1初面
1.介绍实习2.介绍LSTM中的attention如何使用3,LSTM训练很慢,有什么训练的trick4.如何防止过拟合,为什么5.梯度消失问题是如何解决的6.CNN问什么可以处理文本信息,类比于常规NLP的什么方法7.字符串的全排列,寿司代码
2019-09-01
0
1268
8.28度小满面试备忘
1.为什么现在不在用55和77的卷积,而是用33的卷积2.11卷积的作用3.Googlenet inception的结构4.如何产生一个公平的随机数5.densenet了解吗?6.attention的种类7.word2vec的相关知识8.代码最长上升子序列,两个数组的交集并集9.bert到底好在哪里...
2019-08-28
0
1631
8.27 moka面试备忘
1.attention的种类2.NMT为什么要引入attention,以及attention是如何使用的3.K,Q,V的含义以及如何计算的4.手撕算法:字符串压缩5.梯度消失以及梯度爆炸在LSTM中如何抑制的
2019-08-28
0
1366
8.23新浪面试
一直以为面试的是秋招岗位,面了一面之后才知道是实习岗位,-_-||,匆匆结束但是还是问了几个值得我思考的问题:1.为什么bert在小数据集上微调精度比自己的模型好,但在大数据集上的精度却和自己的模型相当?不是bert的精度下降了,而是自己的模型在大量数据集上拟合的更好了。2.transfomer与L...
2019-08-23
0
1529
8.19高德两面+8.22高德第三面+9.2交叉面
有两面,两个小时,问题很多,挑出来现在能记得住的:1.bert以及transformer的结构,以及transformer中的编码器和解码器哪一个速度更快2.LSTM与GRU区别,什么时候用哪一个3.1*1卷积核的作用4.避免过拟合的方法以及原理5.bert的一些trick6.算法题,两个数组求差的...
2019-08-20
4
1995
8.12腾讯地图平台部门两面
一面 优雅的用例子解释贝叶斯公式 双向LSTM的性能为什么优于单向LSTM 绘制一下fasttext的网络架构,并解释为什么fasttext速度快,以及fasttext训练出的词向量是否优于word2vec 在LR中,如何对数据进行处理可以让结果更好 为什么会产生过拟合现象 l2正则是如何解决过拟...
2019-08-12
0
1432
爱奇艺8.8面试难点备忘
1.LSTM,BERT,transform中的位置编码是如何表示2.LSTM的cell中tanh是否可以替换成sigmoid? 输入x经过sigmoid函数后均值在0.5左右,不利于后续激活函数的处理。 而tanh的输出在[-1,1]之间,因此相当于把输入的均值调整为0,便于后续处理。 因...
2019-08-08
0
1877