
李宏毅机器学习
文章平均质量分 93
王伟王胖胖
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
李宏毅机器学习系列-循环伸进网络RNN
深度学习-李宏毅机器学习之RNN-1神经网络可能也需要记忆RNN简介LSTM总结最近做语音研究,可能要用到RNN,所以把李宏毅老师的RNN看了下,顺便做下记录吧,方便以后自己回顾和大家学习。前面有偏比较直觉的讲RNN的,有兴趣的也可以看下。神经网络可能也需要记忆首先来看个例子,加入我们有句话,需要提取出两个slot(可以看做特征吧),一个是目的地,一个是到达时间,比如上面这句话,目的地是T...原创 2019-07-07 23:19:15 · 754 阅读 · 0 评论 -
李宏毅机器学习系列-深度学习的模块化
李宏毅机器学习系列-深度学习模块化更深的网络更好么模块化模块化在语音上的应用语音识别端到端的学习更深的网络更好么通常来说,我们深度越深,参数越多,表现应该越好,这个是很正常的:但是我们也可以考虑不要深度,要宽度,如果不同的结构,同样的参数,到底哪个更好一点呢:我们做实验之后发现深度确实是比宽度效果要好,同样深度,参数越多越好:模块化那为什么深的比宽的好呢,我们可以用模块化来解释啊...原创 2019-08-22 20:51:52 · 1276 阅读 · 0 评论 -
李宏毅机器学习系列-反向传播
李宏毅机器学习系列-反向传播梯度下降法梯度下降法原创 2019-08-18 15:15:43 · 712 阅读 · 0 评论 -
李宏毅机器学习系列-半监督学习
李宏毅机器学习系列-半监督学习什么是半监督学习半监督学习的假设生成模型上的半监督学习Low-density Separation非黑即白自学习熵正则化半监督SVMSmoothness Assumption(平滑假设)Better Representation总结什么是半监督学习顾名思义应该是一般有标签,一般没标签吧,差不多,只是没标签的占大多数,比如下图,我们有6张图,只有两张是有标签的,另外...原创 2019-08-23 14:52:06 · 1391 阅读 · 1 评论 -
李宏毅机器学习系列-无监督学习之PCA
李宏毅机器学习系列-无监督学习之PCA无监督学习做什么聚类(Clustering)分布式表示(Distributed Representation)降维主成分分析 (Principle component analysis)数学推导无监督学习做什么我们做无监督学习一般就是两个方向,一个是降维,比如下面的树,只有输入,没有标签,我们希望通过一个函数抽象出少量的特征来描述他们,于是就抽出来了一个更...原创 2019-08-26 11:36:53 · 2079 阅读 · 1 评论 -
李宏毅机器学习系列-无监督学习之自编码器
李宏毅机器学习系列-无监督学习之自编码器自编码器是什么自编码器文字处理自编码器搜索相似图片自编码器预训练DNN自编码器去噪自编码器用于CNN自编码器可当做生成器总结自编码器是什么先举个例子,比如我们用一个神经网络要把一张图片压成一个code,希望这个code的维度比图片小,我们有很多的图片,但是没有code的标签,也就是我们有输入,没有输出,好像没办法学习:同理我们可以给一个随机的code...原创 2019-08-27 12:51:20 · 1085 阅读 · 0 评论 -
李宏毅机器学习系列-无监督学习之生成模型
李宏毅机器学习系列-无监督学习之生成模型一让机器有有创造力生成模型PixelRNNVAE总结让机器有有创造力我们知道机器是可以学习我们告诉他的东西,也可以学习没有标签的东西,但是能不能让他自己有创造力呢,这个是可以有的,比如让他看了很多动漫头像后,他自己能不能尝试着画出来没出现过的,或者让他读了很多诗之后自己写几句:所以牛人门开始研究生成模型,比如openai发过的文章,开头引用了费曼黑板...原创 2019-08-27 18:16:09 · 1037 阅读 · 2 评论 -
李宏毅机器学习系列-结构化学习介绍
李宏毅机器学习系列-结构化学习介绍结构化学习是什么统一框架物体检测的例子文章总结的例子网页搜索的例子换个概率的角度理解这个框架框架遇到的问题与DNN的联系总结结构化学习是什么简单来说,就是找一个函数,输入一个X,输出一个Y,但是X,Y的结构是不一样的。比如结构可以是序列,列表,树,边界框等等。我们以前学的DNN,输入都是向量,输出也是向量:来看看一些例子:说语音识别和机器翻译:输入的是一...原创 2019-08-28 14:23:12 · 760 阅读 · 0 评论 -
李宏毅机器学习系列-结构化学习之线性模型
李宏毅机器学习系列-结构化学习之线性模型要解决的问题线性模型要解决的问题上篇说了,我们要进行统一框架的结构化学习要解决三个问题,其实第一个和第三个问题是有联系的,如果第一个问题是F是个具体的形式,那第三个问题就好解决了:线性模型首先我们有一组样本x,y,每个对样本都用很多种特性来描述相互之间的关系大小:那我们的F就可以定义为下面的式子,也就是所有关系的线性组合:把他写成向量的形式...原创 2019-08-28 16:23:01 · 337 阅读 · 0 评论 -
李宏毅机器学习系列-结构化学习之结构化支持向量机
李宏毅机器学习系列-结构化学习之结构化支持向量机回顾统一框架统一框架的问题结构化学习的应用统一框架的问题解决方案前方高能线性可分的情况和结构化感知机训练次数的数学推导如何进行快速训练线性不可分情况定义损失函数梯度下降法考虑误差加上正则化结构化SVM切平面算法最难满足的限制多分类和二分类的SVM多分类SVM二分类SVM更好的SVM总结回顾统一框架上两篇介绍了什么事结构化学习,就是输入和输出的结...原创 2019-08-29 23:05:10 · 1283 阅读 · 0 评论 -
李宏毅机器学习系列-深度强化学习介绍
李宏毅机器学习系列-深度强化学习介绍深度强化学习强化学习与监督学习的区别训练语音对话机器人更多的应用玩游戏的例子强化学习的难点:深度强化学习深度强化学习可以理解为深度学习和强化学习的结合体,有个大神说AI=RL+DL,就是这个意思,Deep Mind用这个技术玩游戏,下围棋,一时间引领了AI的潮流。强化学习先说说强化学习,简单来说就是你有一个智能体,他会观察环境,然后做出相应的行为,然后...原创 2019-09-02 11:22:23 · 1011 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之近端策略优化PPO
李宏毅机器学习系列-强化学习之近端策略优化策略梯度的另一个问题策略梯度的另一个问题上一篇深度强化学习介绍到,我们的奖励梯度是这个样子:这个就意味着,在同一场游戏里不同的sts_tst下,采取某个ata_tat的权重有一个相同的R(τn)R(\tau^n)R(τn),这显然是有问题的。比如如果某个R(τn)R(\tau^n)R(τn)好,并不意味着他里面的a都好,要提高出现的概率,相反R...原创 2019-09-03 13:07:45 · 2721 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之Q-Learning
李宏毅机器学习系列-强化学习之Q-Learning评判家(Critic)怎么衡量$V^\pi(s)$蒙特卡洛法(MC)时序差分算法(TD)MC和TD对比另一种评判$Q^\pi(s,a)$Q-Learning目标网络的训练探索缓存(Replay Buffer)算法总结评判家(Critic)评判家基于价值的一种学习方式,我们前面说的是基于策略的。评判家在评判什么呢,他不想策略决定我们要用什么ac...原创 2019-09-03 22:57:36 · 1581 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之Q-Learning小改进
李宏毅机器学习系列-强化学习之Q-Learning小改进Double DQNDueling DQNPrioritized ReplyMulti-stepNoisy NetDistributional Q-functionRainbow总结Double DQN我们在实验中发现Q的值是被高估的,比如下图,红色的曲线是DQN的估计值,直线是Q的DQN的真实值,很明显估计值比真实值高很多,然后我们又用...原创 2019-09-04 12:51:09 · 1573 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之Actor-Critic
李宏毅机器学习系列-强化学习之Actor-Critic回顾策略梯度回顾Q-LearningActor-CriticActor-Critic小贴士Asynchronous Advantage Actor-Critic (A3C)Pathwise Derivative Policy Gradient总结回顾策略梯度回顾下我们前面讲的基于策略的梯度是怎么样的,中间会有一项是优势函数,会有个从某个时刻...原创 2019-09-04 16:39:13 · 1265 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之稀疏奖励(Sparse Reward)
李宏毅机器学习系列-强化学习之Sparse Reward稀疏的奖励(Sparse Reward)人为设计的奖励(Reward Shaping)好奇心机制(Curiosity)课程学习(Curriculum Learning)逆向课程生成器(Reverse Curriculum Generation)阶层式强化学习(Hierarchical Reinforcement Learning)总结稀疏的...原创 2019-09-04 22:34:17 · 12110 阅读 · 0 评论 -
李宏毅机器学习系列-卷积神经网络
李宏毅机器学习系列-卷积神经网络为什么要用卷积神经网络(CNN)卷积神经网络(CNN)基本结构卷积层卷积层的特点最大池化层Keras里该怎么做CNN呢CNN学到了什么Deep DreamDeep StyleCNN的应用总结为什么要用卷积神经网络(CNN)如果我们用一般的全连接神经网络来做图片的分类的话,应该是这样,我们将图片转换为一个向量,然后用很多层进行特征提取,最后输出一个向量,好像没啥问...原创 2019-08-21 20:05:27 · 1304 阅读 · 1 评论 -
李宏毅机器学习系列-深度学习简介
李宏毅机器学习系列-深度学习简介深度学习的概况深度学习的步骤前馈神经网络全连接神经网络数字识别分类总结深度学习的概况深度学习从2012年的图像识别比赛开始就复苏了,发展越来越快,越来越好,具体他的发展历史可以百度下,可以追溯到很早时期,还有几个大起大落的阶段:可以看看这些时间点的重要发展:深度学习的步骤那深度学习的步骤是怎么样的呢,其实跟我们前面说的机器学习差不多,就跟把大象放冰箱里...原创 2019-08-16 13:56:08 · 3013 阅读 · 0 评论 -
李宏毅机器学习系列-梯度下降法
李宏毅机器学习系列-梯度下降法梯度下降法回顾调节学习率梯度下降法回顾我们再定义损失函数之后,我们希望损失函数越小越好,于是想要寻找到一组参数θ∗\theta^*θ∗,使得他让损失函数取得的最小值,即:θ∗=argminθL(θ)\displaystyle \theta^*= arg \min_{\theta} L(\theta) θ∗=argθminL(θ)我们假设θ\thetaθ只有...原创 2019-08-12 15:26:38 · 853 阅读 · 2 评论 -
深度学习-李宏毅GAN学习之VAE
深度学习-李宏毅GAN学习之VAEVAE(变分自编码器)直觉解释VAE直觉架构VAE数学解释高斯混合模型拟合VAE分布映射最大似然估计总结VAE(变分自编码器)直觉解释普通的自编码器大家已经比较熟悉了,比如输入一张图片,然后提取出一个向量,最后再复原回图片。就如下图,我们有两张图片,都编码成一个code,然后可以复原,但是如果我们取了中间的code,应该是什么呢,虽然我们会认为应该是中间的插...原创 2019-07-05 22:10:48 · 6027 阅读 · 4 评论 -
深度学习-李宏毅GAN学习之WGAN
深度学习-李宏毅GAN学习之WGAN分布无重叠问题JS散度的问题LSGANWGAN分布无重叠问题上几篇讲述了GAN的原理,实际上是衡量JS散度,又讲了散度函数,其实我们可以替换衡量散度函数,只要符合一定的条件就行,这次来讲讲JS散度的问题,从而引出新的衡量散度的方法。首先我们的分布Pdata和PG是在高维空间的低维流形(暂时理解成一种高维到低纬的映射吧),所以几乎没有重合部分,这样我们的JS...原创 2019-06-29 13:19:11 · 1114 阅读 · 0 评论 -
深度学习-李宏毅GAN学习之fGAN
深度学习-李宏毅GAN学习之fGAN散度函数散度函数共轭函数(Fenchel Conjugate)一些问题Mode CollapseMode Dropping总结散度函数上一篇讲了GAN的数学原理,这次继续深入。这次讲fGan,也就是将GAN的散度函数的统称,上篇将了2个散度,KL散度和JS散度,当然GAN还有其他的散度函数。上图所示,我们可以将散度函数统一定义为上面这个公式,f()就是...原创 2019-06-27 17:24:47 · 2572 阅读 · 0 评论 -
深度学习-李宏毅GAN学习之理论原理
深度学习-李宏毅GAN学习一目的GAN的理论原理极大似然估计生成器G判别器D具体求法目的通过学习和理解李宏毅的GAN课程,对GAN有更加深入的理解,希望能结合李宏毅老师的课件和自己的理解把GAN的理论基础搞明白,这样就可以去学习更多GAN的变种,同时也可以帮助更多想入门GAN的朋友一点点经验吧。GAN的理论原理通俗的讲,GAN中文叫做生成对抗网络,就是双方互相博弈(生成器和鉴别器,鉴别器要...原创 2019-06-19 22:06:26 · 3259 阅读 · 2 评论 -
深度学习-李宏毅GAN学习之InfoGAN,VAE-GAN,BiGAN
深度学习-李宏毅GAN学习之InfoGAN,VAE-GAN,BiGAN提出问题InfoGANVAE-GANBiGAN总结提出问题我们知道最基本的GAN就是输入一个随机的向量,输出一个图片。以手写数字为例,我们希望修改随机向量的某一维,能改变数字的特想,比如角度,粗细,数字等,但是实际上貌似没什么大的影响,下图就是个例子,貌似看不到某一维度的具体含义,如下图:我们可能直观的会认为每个维度应该...原创 2019-07-09 22:07:02 · 2437 阅读 · 0 评论 -
深度学习-李宏毅GAN学习之CGAN
深度学习-李宏毅GAN学习之CGAN提出问题提出问题如果我们要做输入一段文字生成图片,比如:传统的方法是将文字放入一个神经网络,然后输出一张图片,希望图片跟真实的图片越接近越好:但是这么做产生的图片会模糊,甚至很奇怪,比如说,输入的文字是train火车,真实的图片可能有好多张:那为了减小跟真实图片的差距,就会产生模糊的图片,因为他要跟所有真实图片尽可能的差距小,只能取他们的平均啦,...原创 2019-07-11 12:02:52 · 1139 阅读 · 0 评论 -
深度学习-李宏毅GAN学习之无监督条件生成器
深度学习-李宏毅GAN学习之无监督CGAN无监督条件生成做法情况一:Direct Transformation无监督条件生成之前讲的那篇CGAN都是有监督学习,那能不能无监督学习呢?当然可以啦,大多数情况我们很难弄到一个个对应匹配的数据,比如做图片风格转换,你很难弄到同一个图片的不同种风格,里面东西还是一模一样的,再比如,你很难把一个人的声音风格转换到另外一个人声音上,因为可能你说的是中文,另...原创 2019-07-12 08:58:45 · 1241 阅读 · 0 评论 -
深度学习-李宏毅GAN学习之改进序列生成器
深度学习-李宏毅GAN学习之改进序列生成器序列生成器机器人聊天问题改进序列模型序列生成器很多情况下,我们需要的生成器是序列模型,比如语音识别,机器翻译,机器人聊天,今天我们要用GAN的技术来改进他们,他们都可以看成是一个条件生成器,输入一个信息,根据这个信息输出一个信息:机器人聊天问题举个机器人聊天的例子,传统做法就是训练一个编码器,解码器,输入一段文字,希望输出的跟给定的文字越接近越好...原创 2019-07-12 16:53:40 · 1396 阅读 · 0 评论 -
李宏毅机器学习系列-机器学习介绍
李宏毅机器学习系列-机器学习介绍机器学习介绍生物的本能人类设定好的天生本能机器学习是什么机器学习框架机器学习Learning Map监督学习半监督学习和迁移学习无监督学习结构化学习强化学习为什么要学习机器学习总结机器学习介绍人工智能其实早在1950年左右就被提出了,那个时候人们希望机器能跟人一样拥有智慧能做事,最开始就出现了人类设定好规则,机器执行,但是这样的机器永远只是执行人设定的,如果遇到...原创 2019-08-08 11:58:19 · 555 阅读 · 0 评论 -
李宏毅机器学习系列-深度学习小试牛刀MNIST
李宏毅机器学习系列-李宏毅机器学习系列-深度学习小试牛刀MNIST深度学习框架手写识别MNIST的例子批量训练总结深度学习框架先说说tensorflow和theano,他们都是灵活,很且相对底层的,所以学起来不是那么容易上手,但是keras就封装的比较好,虽然灵活性降低了,但是学习起来容易上手,可以很快的完成代码的编写和测试,初学的比较适合:有人用keras的心得,可见keras模块化非常...原创 2019-08-18 15:58:16 · 448 阅读 · 0 评论 -
李宏毅机器学习系列-分类-概率生成模型
李宏毅机器学习系列-分类:概率生成模型分类及其应用宝可梦分类案例用回归来做分类概率模型先验概率多元高斯模型极大似然估计改进后验概率总结分类及其应用分类简单来说就是你输入一个x,经过一个函数,给你输出一个值n,即属于哪个类,n是个离散的数值:主要应用有:信用评分:比如你去贷款,他会根据你的收入,存款,职业,年龄等因素来评估是否要贷款给你。医疗诊断:根据当前的症状,年龄,以往病史,来推断可...原创 2019-08-13 21:21:26 · 1052 阅读 · 0 评论 -
李宏毅机器学习系列-回归
李宏毅机器学习系列-回归回归的介绍精灵宝可梦的例子定义模型给定训练集和损失函数选择最好的模型结果总结回归的介绍回归简单来说就是给了输入,然后输出是一个数值,比如下面举的几个例子。预测股票,输入为以往的很多股票数据,输入是明天的股票指数:自动驾驶,输入是很多传感器给的信号,比如测距的,摄像头目标检测的等等,输出的一部分可能就是方向盘的转角:推荐系统,输入是以往购买的产品和用户,输出是购...原创 2019-08-09 23:03:12 · 528 阅读 · 0 评论 -
李宏毅机器学习系列-回归演示
李宏毅机器学习系列-回归演示回归演示准备数据训练函数显示结果图像原始调用lr=0.0000001离我们最好的参数还远着,改变lr = 0.000001好像有点震荡了,继续加大看看lr = 0.00001可交互可视化调节调用,继续加大貌似也没用用AdaGrad来分别更新w和b的学习率总结回归演示用了一个简单的例子作为回归的演示,展示了学习率的问题,引出了AdaGrad的方法让不同的参数有自己的学...原创 2019-08-10 13:58:30 · 701 阅读 · 0 评论 -
李宏毅机器学习系列-误差从哪来
李宏毅机器学习系列-误差从哪来误差从哪来我们的估计估计的偏差和方差获得更多数据观察结果偏差和方差对误差的影响如何处理高偏差如何处理高方差模型的选择总结误差从哪来我们继续上次的精灵宝可梦的CP值回归的例子,来看下上次的测试集的平均误差图,那误差从哪里来呢,从偏差和方差来,那么是偏差和方差呢,我们马上会讲到:我们的估计我们先来回顾下上次我们做的事情,就是预测一个方法,输入是宝可梦的信息,输出...原创 2019-08-10 17:47:14 · 444 阅读 · 0 评论 -
李宏毅机器学习系列-逻辑回归
李宏毅机器学习系列-逻辑回归分类回顾逻辑回归+均方差损失函数分类回顾我们先回顾下前面我们讲的分类的步骤,第一步先找到一个模型集合,是个概率模型,最后可以转化为sigmoid函数,输入是一个线性函数,如果结果大于等于0.5,则认为是类1,否则是类2:如果画出结构图的话应该是这样,每个特征xix_ixi都有一个权重,然后加上偏置,输入到sigmoid函数里,得到0到1的概率值:第二步我们...原创 2019-08-15 12:35:58 · 628 阅读 · 0 评论 -
李宏毅机器学习系列-深度学习小贴士
李宏毅机器学习系列-深度学习小贴士是过拟合的错么深度学习的技巧梯度消失ReluMaxout可调节的学习率RMSPropMomentumAdamEarly StoppingRegularizationDropout总结是过拟合的错么我们在做深度学习的时候经常会遇到一些问题,比如我们发现测试集上的效果不好,于是我们马上认为是过拟合,其实不一定,过拟合是在训练集效果好,测试集不好的情况下才有的,而如...原创 2019-08-20 17:29:29 · 401 阅读 · 0 评论 -
李宏毅机器学习系列-强化学习之模仿学习
李宏毅机器学习系列-强化学习之模仿学习模仿学习模仿学习模仿学习就是根据演示来学习,很多时候我们的任务没办法定义奖励,但是我们可以收集很多的数据给机器去学习,方法一般有两种,一种叫行为复制,一种叫逆向强化学习:...原创 2019-09-05 22:08:38 · 2051 阅读 · 0 评论