数据库中的主键、索引和外键(数据分析岗经常问)
决策树ID3和C4.5的差别?各自优点?
Boost算法
CART(回归树用平方误差最小化准则,分类树用基尼指数最小化准则)
GBDT与随机森林算法的原理以及区别。
优化算法中常遇到的KKT条件?作用是?
最近邻算法KNN(分类与回归)
L1和L2函数?L1和L2正则项的比较,如何解决 L1 求导困难?
L1正则为何可把系数压缩成0,说明坐标下降法的具体实现细节
LR为什么用sigmoid函数。这个函数有什么优点和缺点?为什么不用其他函数?
LR和SVM的区别?libsvm和liblinear的区别?
Logistics与随机森林比较
Logistics(理论推导);Logistic回归的推导,如何得到objective function?
SVM与随机森林的差别?
SVM为何要引入拉格朗日的优化方法?
SVM原问题和对偶问题关系?
SVM在哪个地方引入的核函数, 如果用高斯核可以升到多少维。
SVM如何防止过拟合?
SVM的目标函数?常用的核函数有哪些?
SVM的过程,理论推导
bagging、adaboost、boosting区别在哪
EM 与 k-means 的关系?
k-means算法中的k如何选取?
k-means算法初始点怎么选择?
k-means的原理,优缺点以及改进。
k折交叉验证中k取值多少有什么关系?
L2惩罚项是怎么减小Overfitting的?L1,L2等范数的通式是?差别是?在什么场景下用什么范数?L1在0处不可导,怎么处理?
随机森林和GBDT差别?
RF, GBDT, xgboost的区别?
为什么要做数据归一化?
梯度下降法的原理以及各个变种(批量梯度下降,随机梯度下降法,mini 梯度下降法),以及这几个方法会不会有局部最优问题。
牛顿法原理和适用场景,有什么缺点,如何改进(拟牛顿法)
什么情况下一定会发生过拟合?
贝叶斯估计?
介绍LR、RF、GBDT ,分析它们的优缺点
会哪些机器学习算法?信息熵公式?
决策树原理;决策树处理连续值的方法;决策树如何防止过拟合;决策树过拟合哪些方法,前后剪枝。
分类模型可做回归分析吗?反过来可以吗?
分类模型和回归模型的区别?
判别模型和生成模型?差别
各个模型的Loss function,牛顿学习法、SGD如何训练。
在模型的训练迭代中,怎么评估效果?
如何防止过拟合(增加数据,减少模型复杂度->正则化)
对于同分布的弱分类器,求分类器均值化之后的分布的均值跟方差。
对于机器学习你都学了哪些?讲一个印象深的。
常见分类模型( svm,决策树,贝叶斯等)的优缺点,适用场景以及如何选型
数据归一化的方式
手写k-means的伪代码。
手写svm硬软间隔对偶的推导
手写逻辑回归(损失函数及更新方式推导)
BP算法原理
改变随机森林的训练样本数据量,是否会影响到随机森林学习到的模型的复杂度?
数据挖掘各种算法,以及各种场景下的解决方案
是否了解mutual infomation、chi-square、LR前后向、树模型等特征选择方式。
是否了解线性加权、bagging、boosting、cascade等模型融合方式
有哪些常见的分类器,简单介绍下原理
机器学习与深度学习的区别
线性回归与逻辑回归区别?
机器学习:几种树模型的原理和对比,朴素贝叶斯分类器原理以及公式,出现估计概率值为 0 怎么处理(拉普拉斯平滑),缺点;
DBSCAN聚类算法原理
主成分分析法原理、MapReduce原理、Spark等(数据岗题)
梯度下降、牛顿、拟牛顿算法的原理
梯度下降的优缺点。
深度学习有很大部分是CNN,给他用通俗的语言解释下卷积的概念,解释下CNN中的优势及原因
牛顿法、随机梯度下降算法和直接梯度下降算法的区别?
牛顿法推导
特征选择方法有哪些
由数据引申到数据不平衡怎么处理(10W正例,1W负例,牛客上有原题)
聊聊SVM,这段说了好久,从基本的线性可分到不可分,相关升维,各种核函数,每个是如何实现升。以及出现了XX问题,分析是样本的原因还是其他原因。针对不同情况,采取什么解决方案较好。
自己实现过什么机器学习算法
解决过拟合的方法有哪些?
解释一下过拟合和欠拟合,有哪些方法防止过拟合。
如何构造决策树、计算信息熵和信息增益、说明C4.5 、ID3、 CART的区别及优缺点
详细讨论了样本采样和bagging的问题
说一下Adaboost,权值更新公式。当弱分类器是LR时,每个样本的的权重是w1,w2...,写出最终的决策公式。
说了一下bagging跟boosting。
说明L1和L2正则的效果与为什么形成这种情况(L1正则稀疏,L2正则平滑,之后说明就是画图说明正则化)
选个你熟悉的机器学习方法 ,着重介绍一下产生原因,推导公式,背后统计意义什么等等
逻辑回归估计参数时的目标函数
逻辑回归的值表示概率吗?
数据挖掘的基础知识,包括SVM,逻辑回归、EM、K-means等,然后给出很多场景问你遇到这些情况你如何处理数据,怎么进行建模等
随机梯度下降,标准梯度
随机森林和GBDT的区别?LR的参数怎么求解?有没有最优解?
原文:https://blog.youkuaiyun.com/xxn_723911/article/details/80264470
在决策树的某个节点处进行分割,其分割标准是什么?
基尼系数的计算公式是什么?
熵的计算公式是什么?
决策树如何决定在哪个特征处必须进行分割?
如何利用数学计算收集来的信息?
简述随机森林的优点。
简述boosting算法。
梯度提升算法(gradient boosting)是怎样工作的?
简述AdaBoost算法工作原理。
SVM中用到了哪些内核?SVM的优化技术有哪些?
SVM如何学习超平面?论述下其数学运算细节。
谈一谈无监督学习?都有哪些算法?
如何定义K-Means聚类算法中K的值?
列举至少3中定义K-Means聚类算法中K的方法。
除此之外你还知道哪些聚类算法?
介绍一下DB-SCAM算法。
简述下分层凝聚聚类(Hierarchical Agglomerativeclustering)的工作原理。
解释一下主成分分析算法(PCA),简述下使用PCA算法的数学步骤。
20.使用 PCA算法有哪些缺点?
谈谈卷积神经网络的工作原理?详细说明其实现细节。
解释一下卷积神经网络中的反向传播。
你如何部署机器学习模型?
我们大部分情况下都要用C++从零开始搭建一个机器学习模型,这一点你能做到吗?
Sigmoid 函数的范围是什么?
说出scikit-learn能够实现逻辑回归的包的名称。
标准正态分布的均值和方差分别是多少?
你在Python中都使用什么数据结构?
文本分类的方法有哪些?你会怎么做分类?
解释TF-IDF技术及其缺点,如何克服TF-IDF的缺点?
什么是双词搭配(Bigrams)和三词搭配(Trigrams)?用一个文本语句解释一下双词搭配和三词搭配的TF-IDF技术。
举例说明word2vec有哪些应用。
如何设计一个神经网络?如何做到“深度”?这是一个基础的神经网络问题。
简述LSTM的工作原理。它是如何记住文本的?
什么是朴素贝叶斯分类器?
抛10次硬币,4次是正面的概率是多少?
如何获取Python列表中元素的索引?
如果合并两个pandas数据集?
从用户行为来看,你需要模拟一个欺诈活动,你会如何解决这个问题?这是可能是一个异常检测问题或分类问题!
决策树和随机森林,你更喜欢哪一个?
逻辑回归和随机森林有什么区别?
你会用决策树还是随机森林来解决分类问题?随机森林有什么优点?
在不平衡数据集中,你会选择什么模型:随机森林还是Boosting?为什么?
你所了解的Boosting技术有哪些?
采用监督学习解决分类问题,你会选择哪个模型?假设有 40-50个分类!
你怎样使用合奏(Ensemble)技术?
简述支持向量机(SVM)的工作原理。
什么是Kernel?简单介绍一下。
如何实现非线性回归?
什么是Lasso回归和Ridge回归?
你在简历上提到曾经做过演讲中的发音识别,具体来讲讲你的实现方法是什么?
什么是梅尔频率倒谱(MFCCs)?
什么是高斯混合模型,它是如何完成聚类的?
如何实现期望最大化?讲讲其实现步骤。
GMM模型中的概率如何计算?
在进行发音识别时,你是如何为GMM-UBM技术执行MAP调整的?
谈谈你所用的I-vector技术 。
在分析语境时,主要因素是什么?
JFA和I-vector的区别是什么?为什么选择I-vector而不是JFA?
你有没有用过PLDA I-vector技术吗?
有没有读过百度的Deep Speaker论文?
如果有两个模型可供你选择,你选择的依据是什么?(考察模型选择的技术)
简述下贝叶斯信息度量(BIC)和赤池信息量(AIC)的数学工作原理。
贝叶斯信息度量和赤池信息量的工作原理是什么?
如果MFCC特征向量矩阵中的数据发生丢失,应该怎么办?
如何进行语音辨识?有什么特点?
你的分类器是语音和音乐的分类器,还是语音和非语音的分类器?
深度神经网络是如何应用在语音分析中的?