从今天起,豆芽有空也尽己所能,帮助一下大家。

面经来源:https://www.nowcoder.com/discuss/741148?source_id=discuss_experience_nctrack&channel=-1


1. 特征工程怎么做的?

参考回答

  1. 数据预处理

    1. 处理缺失值

    2. 图片数据扩充

    3. 处理异常值

    4. 处理类别不平衡问题

  2. 特征缩放

    1. 归一化

    2. 正则化

  3. 特征编码

    1. 序号编码(Ordinal Encoding)

    2. 独热编码(One-hot Encoding)

    3. 二进制编码(Binary Encoding)

    4. 离散化

  4. 特征选择

    1. 过滤式(filter)

    2. 包裹式(wrapper)

    3. 嵌入式(embedding)

  5. 特征提取

    1. 降维

    2. 图像特征提取

    3. 文本特征提取

  6. 特征构建


答案解析

无。


2. dropout作用,训练测试有啥不一样的地方?

dropout在训练时,以一定的概率p来drop掉相应的神经网络节点,以(1-p)的概率来保留相应的神经网络节点,这相当于每一次训练时模型的网络结构都不一样,也可以理解为训练时添加了不同的数据,所以能够有效减少过拟合

问题呢,是出在测试时,因为训练的时候以概率p drop了一些节点,比如dropout设置为0.5,隐藏层共有6个节点,那训练的时候有3个节点的值被丢弃,而测试的时候这6个节点都被保留下来,这就导致了训练测试的时候以该层节点为输入的下一层的神经网络节点获取的期望会有量级上的差异。为了解决这个问题,在训练时对当前dropout层的输出数据除以(1-p),之后再输入到下一层的神经元节点,以作为失活神经元的补偿,以使得在训练时和测试时每一层的输入有大致相同的期望。


3. 1*1卷积核作用

  1. 实现跨通道的交互和信息整合

  2. 进行卷积核通道数的降维和升维

  3. 对于单通道feature map 用单核卷积即为乘以一个参数,而一般情况都是多核卷积多通道,实现多个feature map的线性组合

  4. 可以实现与全连接层等价的效果。如在faster-rcnn中用1x1xm的卷积核卷积n(如512)个特征图的每一个位置(像素点),其实对于每一个位置的1x1卷积本质上都是对该位置上n个通道组成的n维vector的全连接操作。


4. 实验指标讲一下

参考回答

  1. 准确率(Accuracy)

    定义:

    即所有分类正确的样本占全部样本的比例

  2. 精确率/查准率(Precision)

    定义:

    即预测是正例的结果中,确实是正例的比例。Precision同样是衡量误检

  3. 查全率(Recall)

    定义:

    即所有正例的样本中,被找出的比例。Recall同样是衡量漏检

  4. F1-score

    定义:

    衡量Precision 和 Recall 之间的联系。

  5. ROC 和 AUC

    AUC是一种模型分类指标,且仅仅是二分类模型的评价指标。AUC是Area Under Curve的简称,那么Curve就是 ROC(Receiver Operating Characteristic),翻译为"接受者操作特性曲线"。也就是说ROC是一条曲线,AUC是 一个面积值

  6. Precision-Recall曲线

    PR曲线的横坐标是精确率P,纵坐标是召回率R

    此时曲线上的点就对应F1P-R曲线同样可以用AUC衡量,AUC大的曲线越好。

  7. IOU和mIOU

    就是IOU(Intersection over Union),交集占并集的大小。

    公式其实很简单,就是交集占并集的大小。

    mIOU一般都是基于类进行计算的,将每一类的IOU计算之后累加,再进行平均,得到的就是mIOU。

  8. AP和mAP

    AP(average Precision)和mAP(mean average Precision)常用于目标检测任务中。AP就是每一类的Precision的平均值。而mAP是所有类的AP的平均值。


答案解析

无。




以上所有题的答案其实都来源于我的博客面经,欢迎大家围观:https://blog.nowcoder.net/jiangwenbo