没有答得很好得问题 一面 1.bert原理->transformer简介(attention机制,除了self attention还有没有用到其他attention,mask原理) 2.xgb原理->相比GBDT有哪些改进?如何判断每个结点是否要分裂? 3.Xgb和lgb有哪些不同点? 4.SVM为什么要求解它的对偶问题? 5.Fasttext的原理->和word2vec有哪些不同?为什么要使用n-gram? Word2vec有哪些作用? 6.Note2vec,Deepwalk知道吗? 7.有哪些评判特征重要度的方法?特征缺失的处理方法?如何处理样本不平衡?决策树如何分裂的? 8.FM原理?DeepFM如何做的? 9.有哪些评价指标?AUC的意义?(物理上的)