
机器学习
波风亭
热爱我的热爱
展开
-
分类算法初探—决策树
引言 最近在学习机器学习的一些经典算法,在学习到分类算法时想着写一些博客备忘。于是就有了这篇博文。 分类与聚类 在讲具体的分类算法之前,讲一下什么是分类,什么是聚类。 分类通俗的意思就是将某个样本归属到哪一类别下。聚类的意思就是将相似的样本划为一类。 根据从决策树学习谈到贝叶斯分类算法、EM、HMM的描述Classif...原创 2018-03-06 20:13:52 · 2209 阅读 · 0 评论 -
奇异值分解(SVD)原理
一、特征值和特征向量设AAA是nnn阶方阵,如果存在常数及非零nnn向量xxx,使得Ax=λxAx=\lambda xAx=λx,则λ\lambdaλ称是矩阵AAA的特征值,xxx是AAA属于特征值λ\lambdaλ的特征向量。给定nnn阶矩阵AAA,行列式的结果是关于λ\lambdaλ的一个多项式,成为矩阵AAA的特征多项式,该特征多项式构成的方程∣λE−A∣=0|\lambda E-A|...原创 2019-02-21 14:00:37 · 2783 阅读 · 0 评论 -
面试记录-蚂蚁金服-算法工程师(共四面)通过
一面,1.5小时7月中旬找了蚂蚁金服的师兄内推。之后大概10天后收到蚂蚁金服面试电话,面试官刚开始是用钉钉打过来的,没接到,之后再给他回电话也没人接,没想到面试官在下班路上给我来的电话,可以说很敬业了。面试官先给我说明一下他所在的部门是支付宝的安全部,然后让我介绍一下自己我简单说了一下自己现在所在学校,还有自己本科的两个项目,一个是获得全国大学生信息安全竞赛的项目–app(因为是安全...原创 2018-08-23 13:59:23 · 21491 阅读 · 8 评论 -
面试记录-腾讯TEG一面
投了内推简历,之后接到了腾讯的电话面试,没有过多的介绍直接问我的研究方向,以及项目。将问题整理如下:知道哪些算法怎么做特征工程把特征离散化有什么好处为什么离散化效果更好怎么筛选特征xgb的损失函数是什么正则化的作用是什么正则如何防止过拟合什么叫做凸优化非凸优化怎么解决梯度的意义是什么梯度下降是否能够拿到最有解梯度下降为什么要有一个步长...原创 2018-08-09 14:28:26 · 11001 阅读 · 1 评论 -
面试记录-360提前批(AI专场)
去360面试是一个比较偶然的结果,朋友把我拉到360的校招群,然后在群里投了简历,之后接到了到360总部面试的通知。 当天在360面试,一共分为3轮。前两轮技术面,最后一轮HR面。如果有某一轮不通过就直接离开了。比较幸运,完成了3轮的面试。将技术面问题整理如下:介绍自己本科的项目如何做的特征工程为什么选择某个特征Xgboost的原理LR原理为什么选择LR知道LR的损失函数推导吗...原创 2018-08-09 14:21:35 · 2542 阅读 · 3 评论 -
面试记录-美团提前批(AI 专场)【已拿offer】
序美团点评在7月4号发布了【直通秋招 | 美团2019校园招聘AI算法提前批面试专场启动报名】,抱着试一下的态度申请了8月12号的场,但是并没有接到面试通知,之后接到工作人员的电话说搞错了,之后安排到8月17号的清华专场。一面当时清华专场是在北京的五道口附近的酒店进行的,一起到场的都是清华,北大,中科院还有一些国外名校的硕士或者博士。本人渣硕,心里很慌。。。当天分为两个环节,部...原创 2018-07-25 18:08:00 · 3077 阅读 · 1 评论 -
手推记录-logistic regression (逻辑斯蒂回归)
先看线性回归hθ(x)=θ0x0+θ1x1+⋯+θnxn=θTxhθ(x)=θ0x0+θ1x1+⋯+θnxn=θTxh_\theta(x)=\theta_0x_0+\theta_1x_1+\cdots+\theta_nx_n=\theta^Tx这里的n表示该样本有n维特征。 目标函数 J(θ)=12∑i=1m(hθ(x(i))−y(i))2J(θ)=12∑i=1m(hθ(x(i))−y(i)...原创 2018-06-13 14:30:46 · 3863 阅读 · 0 评论 -
手推记录-XGboost
xgboost 是集成学习boosting的一种,它的基础分类器是CART,即分类回归树。 下图就是CART树和一堆CART树的示例,用来判断一个人是否会喜欢计算机游戏: 用多棵CART树做预测时,就是将各个树的预测分数相加。 xgboost作为一个加法模型,即将所有集成的CART数给出的结果(分数)相加,用数学来准确地表示这个模型, yiˆ=∑k=1Kfk(xi),fk⊆Kyi^...原创 2018-06-12 09:20:19 · 5358 阅读 · 5 评论 -
SVM(支持向量机)
搞懂间隔 给定训练样本集D={(x1,y1),(x2,y2),...,(xm,ym)},yi∈{−1,+1}D={\{(x_{1},y_{1}),(x_{2},y_{2}),...,(x_{m},y_{m})\}},y_{i} \in \{-1,+1\}D={(x1,y1),(x2,y2),...,(xm,ym)},yi∈{−1,+1},分类学习最基本的想法就是基于训练集DDD在...原创 2019-03-25 09:33:50 · 500 阅读 · 1 评论