0%

CV面试之常识题

最近本科毕业,想回顾一下本科的学习内容,同时为实习&找工作的面试做准备,刚好找到了一个网站,有一些“常识题”,自己需要积累并且背下来,加油!

参考:https://www.julyedu.com/question/topic_list/32

​ https://m.julyedu.com/problems/920

什么是归一化,它和标准化的区别是什么?

  1. 定义
    • 归一化:将数值规约到(0,1)或者(-1,1)
      • max-min归一化
      • 小数定标归一化
      • softmax对数归一化:
      • L2归一化
    • 标准化:将对应数据的分布规约到以均值为0,标准差为1的(近高斯)分布上
      • Z-score:减均值除标准差
  2. 如何选择用哪种?
    • 在不用计算距离(例如决策树算法)、计算协方差、不符合正态分布或必须严格控制在[0,1]之间(入RGB图像存储)时,用归一化;有异常点时不适合用归一化
    • 更符合统计假设的,比如数据服从正态分布,用标准化;
      • 用到距离:聚类(Kmeans)、用到正则化的线性模型、KNN
      • PCA降维
  3. 注意事项:
    • 训练集和测试集分别做标准化
    • 两者都可以去除量纲,只有量纲去除后,不同属性间才可以比大小(用来筛出重要或不重要指标)
    • 标准化后,梯度下降算法是在圆形而非椭圆形上寻找,因此收敛速度更快

https://www.zhongxiaoping.cn/2019/01/15/%E6%A0%87%E5%87%86%E5%8C%96%E4%B8%8E%E6%AD%A3%E5%88%99%E5%8C%96/()

https://blog.csdn.net/u012768474/article/details/99871942

如何确定CNN的卷积核通道数和卷积输出层的通道数?

  • CNN的卷积核通道数就是输入张量的通道数

  • 卷积输出层的通道数是卷积核的数量

什么是卷积?

  • 卷积定义:将三维矩阵(长*宽*通道)和一个固定数值的滤波矩阵做内积(逐个元素相乘再相加)

什么是池化层?池化层如何反向传播?

  • 池化:对区域取平均值或最大值,分别叫做平均池化和最大池化
  • 池化作用:减小feature map的尺寸,同时不加入参数量
  • 池化层的反向传播:因为池化层没有参数,因此只是将误差传递到上一层
    • AvgPooling:反向传播时,把一个patch的值分成四块回传,其中每块是patch的平均
    • MaxPooling:需要在前向传播时几下max id,从而在反向传播时,将一个patch的值赋值给max id,其他三块为0

简述什么是生成对抗网络?

  • 简介:生成对抗网络GAN(Generative Adversarial Network)。假设有两个模型,一个是生成模型(Generative Model,下文简写为G),一个是判别模型(Discriminative Model,下文简写为D),判别模型(D)的任务就是判断一个实例是真实的还是由模型生成的,生成模型(G)的任务是生成一个实例来骗过判别模型(D) ,两个模型互相对抗,发展下去就会达到一个平衡,生成模型生成的实例与真实的没有区别,判别模型无法区分自然的还是模型生成的。

ROI Pooling 和ROI Align区别

目标检测相关,前者为Faster RCNN提出,后者为其改进,再Mask RCNN中提出

  1. ROI Pooling

  2. ROI Align

IOU评价指标

常用于目标检测,是一个评价指标,具体是指检测结果和GT之间的交集和并集的比值,即为准确率IoU。而通常会用1-IoU做为loss训练。其优点在于据有尺度不变性,非负且对称;缺点在于当交集为0时,无法比较两者远近;当存在交集时,无法知道两者如何相交。

KNN和K-means的区别

  • KNN是有监督学习的分类算法,没有前期训练过程,预测时直接统计离该点最近的K个点的类别,多数投票即可。
  • K-means是聚类算法,属于非监督学习,有明显的训练过程,不断迭代中心点和类别标记,最终达到平衡。其中K是指有K个聚类中心。

K-means选择初始点的方法有哪些,优缺点是什么?

  1. 从样本中随机选取K个点进行初始化
  2. 多次随机选取中心点并训练,选择使损失函数最小的那一组做为最优
  3. 选择尽量远的K个样本做为中心点
  4. 对于文本这种高维稀疏向量,可以选择K个两两正交的做为初始化中心点

简述线性分类器的原理

  • \(f(x_i,W,b)=Wx_i+b\),这是线性分类器的方程,其中参数\(W\)是权重矩阵,参数\(b\)是偏置向量,在图像分类任务中,\(x_i\)的维度是\((w*h*c,1)\),而\(W\)的维度是\((classNum,w*h*c)\)\(b\)的维度是\((classNum,1)\)

  • 解释一:此时\(W\)就的每一行就可以理解为是一个类别的线性分类器,该行对应的输出就可以理解为图像是这一类的概率是多少。

  • 解释二:另一种解释方法是认为\(W\)的每一行对应一个分类模板,通过内积来比较图像和模板之间的相似程度,从这个角度看,线性分类器就是在利用学习到的模板针对图像做模板匹配。

什么是Softmax层?

为什么用Softmax归一化,而不用直接算求和的占比?

什么是交叉熵损失?

交叉熵损失和最大似然估计之间的关系

激活函数是sigmoid时,交叉熵损失和均方误差损失的区别

欲戴皇冠,必承其重,加油!