2019李宏毅机器学习
loserChen.
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
李宏毅机器学习之Anomaly Detection
李宏毅机器学习之Anomaly Detection 要解决的问题 给定一个数据集,我们想要找到一个函数可以区分输入x是否相似于数据集 什么是异常 异常侦测的应用 异常侦测的分类 异常侦测的一般框架(有标签) 异常侦测的一般框架(无标签) 那么假设数据点的分布满足高斯分布,那么就需要找到使L(θ)L(\theta)L(θ)最大的均值和方差。 利用计算出的均值和方差,再利用验证集确定阈...原创 2019-06-09 11:06:57 · 614 阅读 · 1 评论 -
李宏毅机器学习之Attack and Defense
李宏毅机器学习之Attack and Defense 机器训练出来的模型不光性能要强,还要能够对抗人类的恶意、攻击 通过人为地对图片加上噪声,使得分类产生错误。 无目标的攻击:就是使得结果与事实的距离越远越好 有目标的攻击:输出与答案距离越远越好的同时,还与指定的输出越接近越好 Constraint的限制可以简单理解为人眼看不出差别,但是机器可以给出完全不同的答案 一般对于限制的选择就是...原创 2019-06-09 11:14:03 · 1071 阅读 · 0 评论 -
李宏毅机器学习之Explainable ML
李宏毅机器学习之Explainable ML Local Explanation 通过移动灰色方块,来确定哪个部分是最重要的,越趋于蓝色表示越重要。 类似的想法,逐像素修改,查看输出的变化 求梯度的方法具有一定的局限性: Global Explanation 找一个输入使得yi最大,得到的结果如下左图所示,机器觉得最像每个数字的图像在人看来都是噪声 设计一个R(x),使得x*中白点...原创 2019-06-16 21:12:26 · 1338 阅读 · 0 评论 -
李宏毅机器学习之Life Long Learning
李宏毅机器学习之Life Long Learning Life-long Learning需要解决的问题 Knowledge Retention 学习完任务2后任务1的正确率下降了 如果一起学,可以学的很好,为什么分开学,就乱了,Catastrophic Forgetting EWC 核心思想:在二次训练的时候,之前比较重要的参数尽量不要去改 theta1 在平原上,所以变化对任务1的影...原创 2019-06-16 21:17:19 · 6364 阅读 · 0 评论
分享