
吴恩达机器学习
dhsjjwj
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习——第八周
内容不能为空原创 2020-09-01 19:10:25 · 235 阅读 · 0 评论 -
机器学习——第七周
支持向量机 支持向量机的代价函数和逻辑回归不同。 对支持向量机做出改变来支持复杂的非线性分类。使用**“核函数”**来完成。 例如,想针对下面的样本训练一个分类器,可以选择一个高次多项式来完成分类任务θ0+θ1x1+θ2x2+θ3x1x2+θ4x12+θ5x22+...≥0\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_1x_2+\theta_4x_1^2+\theta_5x_2^2+...\geq0θ0+θ1x1+θ2x2+θ3x1x2+θ4x1原创 2020-08-22 22:22:15 · 200 阅读 · 0 评论 -
机器学习——第六周
本周主要介绍在开发一个机器学习系统或者想着试着改进一个机器学习系统的性能,应该如何做?如何选择改进的方向? 例如,之前介绍的预测房价的例子。如果已经完成正则化线性回归、得到参数之后。将假设函数放到一组新的房屋样本上进行测试,如果发现预测房价时产生了巨大的误差,接下来如何改进当前的算法? 使用更多的训练样本?获取数据的更多特征? 使用更少的特征集?(从许多特征中选择一些来防止过拟合) 增加多项式特征? 减小或者增大正则化参数λ\lambdaλ 选择上面哪些方法呢?很多时候是凭感觉的,这可能会导致我们浪费了很原创 2020-08-17 14:43:49 · 179 阅读 · 0 评论 -
机器学习——第五周
反向传播算法 反向传播是神经网络中的一个术语,利用反向传播可以最小化代价函数。类似在线性回归和逻辑回归中,利用梯度下降所做的工作,在神经网络中,我们的目的也是计算KaTeX parse error: Undefined control sequence: \thetaJ at position 5: min_\̲t̲h̲e̲t̲a̲J̲(\theta),也就是想要找到一组最优的参数θ\thetaθ来最小化我们的代价函数。 反向传播的算法如下: 训练集为(x(1),y(1)),...(x(m),y(m)){.原创 2020-08-12 22:46:30 · 133 阅读 · 0 评论 -
机器学习——第四周
编程作业1 参考了其他博客。python一定要注意缩进,一个缩进错误,找了小半下午才找到。 displayData.py import numpy as np import matplotlib.pyplot as plt ####不知道为啥这样写,这是一篇博客里面的,看了看和题目给的matlab代码近似, ####只是将matlab代码转换成python代码 ####看了代码大致明白是怎么实现的了 ####将数据向量还原成20*20的矩阵块,之后将其作为图像进行显示即可 def display_d..原创 2020-08-10 12:38:14 · 224 阅读 · 0 评论 -
机器学习——第三周
上面的代价函数分y=1y=1y=1和y=0y=0y=0两种情况,如何将两种情况简化成一个式子,从而达到简化的目的? cost(hθ(x(i)),yi)=−yilog(hθ(x(i)))−(1−y(i))log(1−hθ(x(i)))cost(h_\theta(x^{(i)}),y^{i})=-y^{i}log(h_\theta(x^{(i)}))-(1-y^{(i)})log(1-h_\theta(x^{(i)}))cost(hθ(x(i)),yi)=−yilog(hθ(x(i)))−(1−y(i)..原创 2020-08-08 11:05:20 · 180 阅读 · 0 评论 -
机器学习——第一周
只有一个变量的线性回归:h(x)=θ0+θ1xh(x)=\theta_0+\theta_1xh(x)=θ0+θ1x 需要合理选取θ0,θ1\theta_0,\theta_1θ0,θ1使得代价函数(平方差代价函数)J(θ0,θ1)=1/(2m)∑1m(h(xi)−yi)2J(\theta_0,\theta_1)=1/(2m)\sum_1^m(h(x^i)-y^i)^2J(θ0,θ1)=1/(2m)∑1m(h(xi)−yi)2取最小值。 最小化代价函数 使用梯度下降法最小化代价函数 θj=θj−原创 2020-08-02 17:47:56 · 124 阅读 · 0 评论 -
机器学习——第二周
多元线性回归的矩阵表示 使用梯度下降法解决多元线性回归问题 hθ(xi)=θ0∗x0i+θ1x1i+...+θnxnih_\theta(x^i)=\theta_0*x^i_0+\theta_1x_1^i+...+\theta_nx_n^ihθ(xi)=θ0∗x0i+θ1x1i+...+θnxni θ=(θ0,θ1,...,θn)T\theta=(\theta_0,\theta_1,...,\theta_n)^Tθ=(θ0,θ1,...,θn)T xi=(1,x1i,x2i,...,xn原创 2020-08-02 17:47:33 · 98 阅读 · 0 评论