下午一面,大概问了70分钟,感受很棒,面完之后收获好多。
1.模型加速的方法:答:network pruning和dw conv,简单介绍了一下shufflenet和mobilenet的思路
2.recall和Fa的理解,重新改变softmax在0附近和1附近的值,对评价标准有没有影响:答:没有,顺序不变就没影响
3.项目中如果改为多标签分类,label怎么设置。答:设置soft label
项目中的mask图怎么加入的,为什么这么做
4.关键点检测,heatmap中对于极大值和次大值,如何操作:答:偏移1/4
如果直接回归坐标,应该怎么做,装作想了半天,其实不会,给我介绍了soft argmax。并且介绍了HRnet,让我试一下
5.focalloss的本质,为什么这么做,为什么目标检测中提出,对分类真的有用吗,这个类似于开放性问题,交流了一下对于focalloss的理解,因为目标检测中一是类别不均衡,二是负例易分,所以focalloss有用,但是对于分类值得商讨。
对于类别不均衡还有那些常见的操作:答:dataaug,ohem
6.CascadeRCNN的原理,本质解决了什么问题。
7.Reploss的思想
8.yolov2中聚类是怎么做的。
9.介绍一下人脸识别中max-in-out的策略,为什么这么做,本质是什么。
10.介绍一下GN的思想。和BN比的优势。BN归一化的是哪几维。BN在训练时怎么操作的。BN在inference的时候用到的mean和var怎么来的:类似于滑动平均,这个问题想了好久才想起来,论文太久时间没回顾了。BN在inference的时候怎么加速:权重合并。BN跨卡训练怎么保证相同的mean和var:这个不会,问了面试官是SYNC,哎呀,前两天在公司还看到过这个SYNC,还想查一下是干嘛的,没来得及查就被问到了,唉唉唉。
11.网络参数量怎么计算
还问了一些项目中的问题,记不清了,能想起来的都写在上面了。
感受上问的问题都很细节,考察你是否真的做过,是否真的理解,收获还是很多的。
感觉参加图森的面试还是挺值的,即使不过也收获很多,毕竟自己太菜了,还是得多注重细节啊
更新,今天上午收到了拒信,唉,还是菜。继续努力吧