今天这个电话真是打的好巧,我下午前脚刚进老师的门,准备汇报工作,马上hr电话就打来了,我马上机智的说,老师 ,我去实验室把XXX 找来,马上转身接了电话,不要说我太机智,hr姐姐帮我预定了下午的面试时间,心想鹅场的办事效率超高呀(作者昨天刚接到一面的电话啊嘿)。。。接着,我用快到飞起来的语速给老师汇报了工作,去实验室准备面试去了。
好像题外话说的有点多。。。。。。。。。。。。。。。。。。。。。。。。
首先,面试官也是一个男生,应该是还没看过简历的样子,所以我马上毛遂自荐的自我介绍,接着介绍了有关项目的相关内容,感觉逻辑说的有点乱,面试官感觉对我的项目还是觉得有点意思的,问了问曾经尝试的优化方法,并且做了简单的介绍,以及不用他们的理由,并且也顺带介绍了接下来的另一个和svm相关的项目,总之,大家一定要对自己简历上的内容超级熟悉,并且也要熟悉他的周边内容,这些在面试的时候都是一定会问到的,包括你的项目实际应用,感谢老师让我的项目如此实际!!!
接下来,面试官问了一下熟悉的机器学习的方法,以及参加kaggle的经历,kaggle是个好东西,可以锻炼你实践的能力,并且教给你分析实际问题的方法,数据挖掘或机器学习相关领域的童鞋可以去试试哟。
下面是我记得面试官问了几个基本的问题,比如当数据不足的时候你训练的model会产生什么问题,比如当数据有很多离群点的时候你该怎么办?这个问题我当时回答的有偏差,因为我想成了噪点,噪点是noise,是对原始值的干扰,我们这时候可以去掉这些噪点,或者使用一些简单的model,比如LR 来拟合,或者软间隔的svm来做这个问题,但是如果是离群点,我们可以分开而论,if 我们 关注的是典型的特征 ,那么我们可以使用对离群点不敏感的 bagging的方法,降低varience,如果我在乎这些离群点,那么可以使用对离群点敏感的boosting的方法建模,这个也是boosting算法的缺点。
接下来的一个问题是 一个多分类的问题,我们提供一堆用户的数据,那么我们如何预测用户明天会做什么?
那么我从数据清洗 特征选择,异常正反例,model选择 这几个方面来回答,不知道我回答的有没有到点上。
接下来就是一个优化方程的问题,如果我们现在的costfunction很难写出来,写出来之后特别长,那我们选择什么优化方法?如果这样一大批关于梯度二阶梯度的方法就不能用了,因为求梯度比较困难,而且之前用过lbfgs,如果让函数自己求梯度比较慢还不准确,于是自己手写的一届偏导矩阵。。。于是我想到了之前用到的DE ,不需要给初始值,也不需要计算梯度,来自遗传算法的差分进化算法,但是他需要调整的参数实在比较多。
恩,就这样吧,,,没有了