
机器学习-吴恩达 笔记
文章平均质量分 86
fire_lch316
这个作者很懒,什么都没留下…
展开
-
机器学习/深度学习中矩阵求导
在讨论矩阵求导之前,我们先回忆一下为什么要求导。吴恩达的视频中讲到过相关问题,可以将找一个函数的极值看做机器学习的工作,比如下图,当前找到的解对应图中A点(x,f(x))。此时可以求函数在A点的偏导。然后x减去就是更新的下一个位置。就是学习速率。可以看出离极值点越远,偏导的绝对值越大,那么每次移动步长的就更大,这样更快接近极值点。反之,离极值点越近,偏导的绝对值越小,每次移动的步长就更小,这样在求极值点的时候更精确。从上述可以了解到求偏导的作用,就是帮助我们更新参数。因此如果要求一个参数原创 2022-02-19 16:52:36 · 1443 阅读 · 0 评论 -
机器学习-吴恩达 第四周编程题(Coursera ;Octave 代码)
lrCostFunction.mfunction [J, grad] = lrCostFunction(theta, X, y, lambda)%LRCOSTFUNCTION Compute cost and gradient for logistic regression with %regularization% J = LRCOSTFUNCTION(theta, X, y, lambda) computes the cost of using% theta as the para原创 2020-08-30 16:08:56 · 260 阅读 · 0 评论 -
机器学习-吴恩达 第三周编程题(Coursera ;Octave 代码)
sigmoid.mfunction g = sigmoid(z)%SIGMOID Compute sigmoid function% g = SIGMOID(z) computes the sigmoid of z.% You need to return the following variables correctly g = zeros(size(z));% ====================== YOUR CODE HERE ======================原创 2020-08-22 19:23:33 · 507 阅读 · 0 评论 -
机器学习-吴恩达 第二周编程题(Coursera ;Octave 代码)
computeCost.m:function J = computeCost(X, y, theta)%COMPUTECOST Compute cost for linear regression% J = COMPUTECOST(X, y, theta) computes the cost of using theta as the% parameter for linear regression to fit the data points in X and y% Initial原创 2020-08-10 20:52:32 · 497 阅读 · 0 评论 -
机器学习-吴恩达 p141-p151(网易云) 笔记
p141p142p145p147p149p150p151原创 2020-08-04 16:50:28 · 148 阅读 · 0 评论 -
机器学习-吴恩达 p134-p140(网易云) 笔记
p134p135p136p137p138原创 2020-08-04 16:47:30 · 134 阅读 · 0 评论 -
机器学习-吴恩达 p85 笔记
原创 2020-08-04 16:44:15 · 171 阅读 · 0 评论 -
机器学习-吴恩达 p84 笔记
原创 2020-08-04 16:43:20 · 100 阅读 · 0 评论 -
机器学习-吴恩达 p75 笔记
原创 2020-08-04 16:41:41 · 106 阅读 · 0 评论 -
机器学习-吴恩达 p74 笔记
原创 2020-08-04 16:41:01 · 77 阅读 · 0 评论 -
机器学习-吴恩达 p73 笔记
原创 2020-08-04 16:40:14 · 100 阅读 · 0 评论 -
机器学习-吴恩达 p71 笔记
原创 2020-08-04 16:38:31 · 108 阅读 · 0 评论 -
机器学习-吴恩达 p70 笔记
原创 2020-08-04 16:37:45 · 117 阅读 · 0 评论 -
机器学习-吴恩达 p52 笔记
感觉这节和p51一起看,这节视频主要就是讲了p51伪代码里面那个的求法,以作为计算的参数。原创 2020-06-25 16:54:00 · 160 阅读 · 0 评论 -
机器学习-吴恩达 p51 笔记
话不多说,先粘上几个比较重要的图 这里有个推导。 因为 那么 ...原创 2020-06-23 15:13:44 · 180 阅读 · 0 评论 -
机器学习-吴恩达 p31 笔记
这节视频针对这个推了下比较浅显的行列式计算的公式:θ:=θ-α/m﹡X'﹡(X﹡θ-y) 这里假设n=2,即两个特征量。y就是m*1的行列式,X就是m*3的行列式,X'就是3*m的行列式,θ就是3*1的行列式。 首先你看那个h(x)-y不就是每组数据和真实值的差吗,所以自然会想到X﹡θ-y。那么(h(x)-y)x不就是X'﹡(X﹡θ-y)吗,然后就没了。...原创 2020-06-17 17:22:38 · 155 阅读 · 0 评论 -
机器学习-吴恩达 p23 笔记
这堂课中讲到了线性代数正规求解 θ=pinv(x'﹡x)﹡x'﹡y,有弹幕说这是最小二乘法。 先设这里的x和视频中的维度一致,即n=1,特征数为1,m组数据。那么x就是m*2的一个行列式,x'就是2*m的一个行列式。x'﹡x就是一个2﹡2的行列式,pinv(x'﹡x)也是一个2﹡2的行列式,pinv(x'﹡x)﹡x'是个2*m的行列式,y是m﹡1的行列式,pinv(x'﹡x)﹡x'﹡y就是2﹡1的行列式,即θ为2﹡1的行列式。 现在可以猜想一下,θ不就是x﹡θ=y的解...原创 2020-06-17 11:43:33 · 167 阅读 · 0 评论 -
机器学习-吴恩达 p20 笔记
视频讲到了要将特征值的范围确定在一个较小的范围,下面的是视频的原图。 先说下这曲线为啥长这样。图的横纵坐标就表示为θ1,θ2.对于其中某个圆J(θ')(θ1,θ2各取得某值时代价一直为J(θ'))。那么当J(θ')变为J(θ''),变化值为ΔJ。假设θ1不变,那么θ2变化了ΔJ/5(这里考虑极端情况);假设θ2不变,那么θ1变化了ΔJ/2000(这里考虑极端情况)。很明显ΔJ/5远大于ΔJ/2000,那么图就对应上了。 换个角度看,如下图,可以发现θ1不变时,J(...原创 2020-06-16 18:03:25 · 158 阅读 · 0 评论