
机器学习
文章平均质量分 92
Hacker_vision
一件事,你可以不去做,要做,就要全力以赴,做到最完美。
展开
-
Stanford机器学习---第一周.监督学习与梯度下降
假期继续捡起Coursera上Andrew Ng的《Machine Learning》课程,去年同一时间学过一点点,这假期争取结课。 视频讲的内容还是蛮多的,写在讲义上的知识点太零散,每周的课程做一个梳理和总结,感兴趣的可以参考下滴~第一周第一讲 引言(Introduction) 1.机器学习是目前信息技术中最激动人心的方向之一; 机器学习是人工智能AI(Artific原创 2016-01-07 14:05:03 · 1514 阅读 · 0 评论 -
Stanford机器学习---第二周.特征缩放、正规方程
第二周 第四讲 多元线性回归(Linear Regression with multiple variables)1.多元线性回归模型假设/拟合函数Hypothesis: 参数parameter: 代价函数Cost Function:原创 2016-01-08 14:32:26 · 3312 阅读 · 0 评论 -
Stanford机器学习---第三周.逻辑回归、正则化
第三周 逻辑回归与正则化学完前三周简要做个总结,梳理下知识框架:第一讲 逻辑回归Logistic Regression1.分类问题Classification Problemfor example->Email: Spam / Not Spam 判断一封邮件是不是垃圾邮件?->Online Transaction:Fraudulent(Yes/N原创 2016-01-17 16:48:29 · 5091 阅读 · 1 评论 -
Stanford机器学习---第四周.神经网络模型
第四周 神经网络的表示Neural Networks:Representation关键词: 复杂的非线性分类器、大脑的学习算法、神经网络模型、手写识别写在前面的话: 初学者刚开始接触神经网络可能会比较难理解,笔者也是一口气学完第五周的课程才有底气回头写这一周的梳理总结。从数值计算的角度,如果说之前的线性回归、逻辑回归都是二维矩阵之间的运算的话,那么神经网络又原创 2016-01-20 20:28:19 · 1846 阅读 · 0 评论 -
Stanford机器学习---第五周.BP神经网络算法
第五周 BP神经网络算法Back propagation algorithm关键词 代价函数J(Θ)、反向传播、梯度检验、随机初始化、自动驾驶重要的话 反向传播神经网络算法的目的是优化神经网络层与层之间的传递参数Θ,本质就是梯度下降,沿着偏导数的方向下降直至代价函数最小,需要注意的几点就是代价函数J(Θ)、偏导数∂J(Θ)的表示、参数Θ的原创 2016-01-21 17:50:11 · 6161 阅读 · 0 评论 -
Stanford机器学习---第六周.学习曲线、机器学习系统的设计
第六周.学习曲线、机器学习系统的设计Learning Curve and Machine Learning System Design关键词 学习曲线、偏差方差诊断法、误差分析、机器学习系统的数值评估、大数据原理概要 本周内容分为两讲: 第一讲.Advice for applying machine learning,主要内原创 2016-01-22 21:29:28 · 7551 阅读 · 0 评论 -
Deep Learning(深度学习)
Deep Learning(深度学习)ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞python的可以参考,很不错。deeplearning.net主页,里面包含的转载 2016-03-21 17:41:33 · 1750 阅读 · 6 评论