
吴恩达机器学习笔记
loserChen.
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Cousera吴恩达机器学习week8笔记
photo OCRSliding WindowsGetting Lots of Data and Artificial DataCeiling Analysis: What Part of the Pipeline to Work on Next原创 2020-02-08 19:44:11 · 248 阅读 · 0 评论 -
Cousera吴恩达机器学习week7笔记
Stochastic Gradient Descent随机梯度下降每次只对一个数据进行计算,相对传统的批处理梯度下降运行速度更快一些。Mini-Batch Gradient DescentStochastic Gradient Descent Convergence虽然不断减小alpha的值有助于我们找到全局最小,但是这个会让工作量增加,而且找到最小的范围已经满足我们的需要了,...原创 2020-02-08 19:41:38 · 302 阅读 · 0 评论 -
Cousera吴恩达机器学习week6笔记
Density EstimationGaussian Distribution他的图像如下:以均值为中心,方差为宽度。有了均值与方差的计算方法,就有了参数估计这一名词。就是:给你了一些样本值,你可以求出他们的均值与方差,然后用这两个参数估计总体样本的分布。第二个比较重要的数学知识就是独立分布的概率,等于概率的乘积。AlgorithmBuilding an Anomaly Det...原创 2020-02-08 19:38:04 · 353 阅读 · 0 评论 -
Cousera吴恩达机器学习week5笔记
ClusteringK-Means AlgorithmK均值(K-means)算法是一个广泛使用的用于簇划分的算法。下面说明K均值算法的步骤:随机初始化K个样本(点),称之为簇中心(cluster centroids);簇分配: 对于所有的样本,将其分配给离它最近的簇中心;移动簇中心:对于每一个簇,计算属于该簇的所有样本的平均值,移动簇中心到平均值处;重复步骤2和3,直到找到我们想要...原创 2020-02-08 19:28:10 · 335 阅读 · 0 评论 -
Coursera吴恩达机器学习week4笔记
Large Margin ClassificationOptimization Objectivesvm:Large margin intuitionMathematics Behind Large Margin ClassificationKernelsKernels1定义决策边界对应的函数是Θ0+Θ1f1+Θ2f2+Θ3f3,其中f1、f2和f3就是相似度函数。下图给定...原创 2020-02-08 19:18:00 · 618 阅读 · 0 评论 -
Coursera吴恩达机器学习week3笔记
Evaluating learning algorithmEvaluating a HypothesisOnce we have done some trouble shooting for errors in our predictions by:Getting more training examples:Fixes high varianceTrying smaller sets ...原创 2020-02-08 19:10:14 · 365 阅读 · 0 评论 -
Coursera吴恩达机器学习week2笔记
Neural Networkdendrites树突,属于输入axon轴突,属于输出模型中x0为bias unit,偏差单元,总等于1In neural networks, we use the same logistic function as in classification, 1/(1+e(−θTx)), yet we sometimes call it a sigmoid (log...原创 2020-02-08 19:06:18 · 373 阅读 · 0 评论 -
Coursera吴恩达机器学习week1笔记
What is Machine Learning?Arthur Samuel described it as: “the field of study that gives computers the ability to learn without being explicitly programmed.” This is an older, informal definition.Tom ...原创 2020-02-08 18:53:07 · 763 阅读 · 1 评论