
机器学习
文章平均质量分 67
努力学挖掘机的李某某
Thu->DIDI
展开
-
ubuntu 16.04 安装 xgboost python运行环境
最近在做天池的比赛,需要用到xgboost,于是记录一下安装过程。从github上下载到本地git clone --recursive https://github.com/dmlc/xgboost注意一定要加 --recursive 不然后续操作会报错cd xgboostmake -j4结果如下cd python-package/sudo pyth原创 2017-07-30 20:57:38 · 982 阅读 · 0 评论 -
【机器学习】从RNN到Attention 中篇 从Seq2Seq到Attention in Seq2Seq
变长输出模型——Seq2Seq在上一篇【机器学习】从RNN到Attention上篇 循环神经网络RNN,门控循环神经网络LSTM中,我们的建模基础是通过一串历史的时间序列x1,x2,.....,xtx_1,x_2,.....,x_tx1,x2,.....,xt,预测下一时刻的时间序列xt+1x_{t+1}xt+1,即输出为1一个数据。如下图所示:这类模型通常可以用来解决时间序列预测,...原创 2019-06-30 13:06:49 · 745 阅读 · 0 评论 -
【机器学习】从RNN到Attention上篇 循环神经网络RNN,门控循环神经网络LSTM
为什么我们需要RNN对于一个时间序列问题,已知f(x1),f(x2),f(x3),....,f(xt−1)f(x_1),f(x_2),f(x_3),....,f(x_{t-1})f(x1),f(x2),f(x3),....,f(xt−1),求解f(xt∣x1,x2,....,xt−1)f(x_t|x_{1},x_2,....,x_{t-1})f(xt∣x1,x2,....,xt−1...原创 2019-06-29 14:49:02 · 746 阅读 · 0 评论 -
【机器学习】—— 各种梯度下降的变形momentum,adagrad,rmsprop,adam分别解决了什么问题
MomentumMomentum的公式表达设时间步ttt的自变量为xt\boldsymbol{x}_txt,学习率为ηt\eta_tηt。在t0t_0t0时刻,速度变量v0=0\boldsymbol{v}_0=0v0=0,在时间步t>0t>0t>0,Momentum关于速度变量vt=0\boldsymbol{v}_t=0vt=0和自变量xt\bold...原创 2019-06-21 08:04:26 · 725 阅读 · 0 评论 -
【机器学习】——为什么softmax搭配cross entropy是解决分类问题的通用方案?
众所周知,softmax+cross entropy是在线性模型、神经网络等模型中解决分类问题的通用方案,但是为什么选择这种方案呢?它相对于其他方案有什么优势?笔者一直也困惑不解,最近浏览了一些资料,有一些小小心得,希望大家指正~损失函数:交叉熵Cross Entropy我们可以从三个角度来理解cross entropy的物理意义从实例上直观理解我们首先来看Cross Entropy 的公...原创 2019-04-18 22:52:53 · 1097 阅读 · 3 评论 -
【机器学习】——偏差方差,欠拟合过拟合
本系列文章由@ 努力学挖掘机的李某某出品,转载请注明出处。文章链接:http://blog.youkuaiyun.com/qq_30911665 虽然读研期间做的内容和机器学习相关,但是17年秋招时发现自己对于机器学习深度学习的理解不够深入,而自己在学习的过程中发现,通过分享讲解知识的方式更有助于自己对于知识的巩固和了解,于是萌生了写一个教程的想法。本文尽量采取简单易懂的方式叙述,顺便重新学习一下整个知...原创 2018-03-13 11:50:02 · 2580 阅读 · 0 评论 -
【机器学习】——学习率,梯度下降法,批梯度下降,归一化
本系列文章由@ 努力学挖掘机的李某某出品,转载请注明出处。文章链接:http://blog.youkuaiyun.com/qq_30911665 虽然读研期间做的内容和机器学习相关,但是17年秋招时发现自己对于机器学习深度学习的理解不够深入,而自己在学习的过程中发现,通过分享讲解知识的方式更有助于自己对于知识的巩固和了解,于是萌生了写一个教程的想法。本文尽量采取简单易懂的方式叙述,顺便重新学习一下整个知...原创 2018-03-12 19:44:36 · 4153 阅读 · 2 评论 -
【机器学习】—— 什么是机器学习
什么是机器学习(Machine Learning)Machine Learning这个词,我第一次听到感觉就是怪怪的,其实我们可以把它倒过来理解,“LearningMachine” ,好吧,似乎还是怪怪的, 那么我们把Machine换成Algorithm就好理解了,“Learning Algorithm”,没错,就是“学习算法”。机器学习就是具有学习能力的算法。那么接...原创 2018-01-19 18:02:17 · 2483 阅读 · 0 评论 -
阿里校招内推电话面
下午接到阿里的电话面试,总共面了大概有50分钟,记录一下主要内容。首先先是自我介绍,我主要介绍了一下自己的实习和研究方向。然后是问项目,让我着重介绍其中一个项目,我介绍了一个实习的时候做的图像识别+双目测距的项目,然后就是各种细节,识别了什么,怎么做的识别,双目测距的原理之类的。其中有一个问题问我如果在双目测距中,物体不在两个摄像头的中心位置怎么办。我有点蒙,没有回答上来,想了想好像是原创 2017-08-08 18:25:33 · 598 阅读 · 0 评论 -
【机器学习】从RNN到Attention 下篇 Transformer与Self-Attention
在上一篇【机器学习】从RNN到Attention 中篇 从Seq2Seq到Attention in Seq2Seq中我们介绍了基于RNN结构的Attention机制,Attention机制通过encoder和注意力权重可以观察到全局信息,从而较好地解决了长期依赖的问题,但是RNN的结构本身的输入依赖于前一时刻模型的输出,因此无法并行化。既然Attention机制本身就具有捕捉全局信息的能力,那么我...原创 2019-09-01 12:16:35 · 1609 阅读 · 0 评论