1.Adaboost, GBDT 与 XGBoost 的区别.GBDT本身又是什么
2.各种batchnorm及其变种。global batch,layer batch,等等
3.优化方法:SGD等等的变种
4.c++的指针和引用的区别;c++的容器;c++的虚函数;c++的向量和list的区别以及适用情况。
5.检测网络的nms(非极大值抑制)丢掉物体,如何减少这种影响。好像是有soft nms这个论文,但是不是通用的法宝,不过有时候会有用
6.2个排序好的数组,如何合并为一个有序的数组。时间复杂度是多少。
N个排好序的数组,每个数组有n个元素,合并为一个有序数组。时间复杂度是多少。(使用最小堆,如何使用呢)
说一个时间复杂度比较低的算法
7.对于检测的一些发展史,每一个的改变,比如mask rcnn相对于faster rcnn的改变,等等。
roi pool ,bn的优点,dropout的训练,测试的时候的作用/设置
8.反向传播的,卷积的反向传播;fc的反向传播;公式的推倒
9.感受野的计算:关于感受野是什么(在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域。)
10.滴滴关于机器学习的面试:
(1)逻辑回归的公式,如何求解的,公式是什么。逻辑回归、线性回归、svm的区别和联系
(2)判断模型好坏,除了准确率还有什么(recall,F1)。roc曲线是什么,auc是什么,什么含义。如果类别不平衡在评价的时候,用什么指标,类别不平衡的时候,roc曲线会不会变化呢。还有没有别的模型评价指标,都有什么评价指标呢?
(3)都有什么损失函数,比如0-1损失,这个损失在梯度传播的时候如何求解,会不会就是0呢,这个怎么解决?交叉熵损失如何书写呢?怎么才算是交叉熵呢。
(4) 决策树,xbgt,gbdt等等
(5)写一个算法:一个数组里面,寻找第k大的数字。如果全部快排,时间复杂度是O(nlogn),如果部分丢掉的去排序,是O(n)的时间复杂度。
11. roi pooling等的知识点。
12. batch norm的一些知识。l1\l2正则化,哪个更稀疏,稀疏的目的就是为了线性分解。
13. Adam和其它优化器相比的特点有哪些?学习率这种怎么设置?如何得到最优值?