吴恩达机器学习私人总结(2)

博客围绕梯度下降法展开,为减少局部最小关注二分类代价函数变化。还提及除梯度下降法外更有效的复杂方案,介绍用Octave运行计算的步骤。针对多分类情况,可将其转化为二分类。最后探讨能否用训练好的神经网络隐层输出作输入,采用无隐层结构完成训练。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

octave教程和MATLAB类似。
octave:11> PS1('>> ')更改提示符
格式化输出:
disp(sprintf('6 decimals: %0.6f', a))
对矩阵A扩充一列
A = [A, [100; 101; 102]]
矩阵A合并为一列:
A(:)
矩阵求伪逆https://blog.youkuaiyun.com/yinyu19950811/article/details/61420131
pinv(A)
构造10000个随机数,绘制分布图
w=randn(1,10000);
hist(w,50)
加载数据:
load featuresX.dat/mat
whos显示数据。
size(A)计算大小,length计算长度
单位矩阵和逆矩阵
eye(3)
flipud(eye(3))
路径转换:
addpath('xx');

使用矩阵做运算比传统的用循环速度快而且代码短。
分类问题强烈不建议使用回归方式完成。
使用sigmoid回归函数用于分类问题,它实际是一个分类算法。

分类方案中采用的函数考虑线性和非线性的情况:

在使用梯度下降法进行过程中,为了减少可能进行局部最小采用的代价函数变化情况(二分类):

 

除梯度下降法的其它方案:更有效但是更复杂。

使用Octave运行,自定义好代价函数并让其返回代价函数公式和代价函数每个梯度,自定义options,自定义初始化Theta,使用函数fminunc进行计算。

得到最终的结果。返回了目标theta,达到的最小误差,exitFlag表示成功(Converged to a solution point.)。

 

 在针对大于2分类情况,使用分割,将多分类转化为二分类。如三分类,转化为3个2分类。四分类转化为4个二分类等。

降低过拟合的方案有:
1减少特征数量,通过手动减少确定应该保持的特征和通过算法确定。
2正则化,保持所有特征但是通过参数theta减少部分特征的影响力或者每个特征都影响一点点对目标值。

正则化:

 隐层神经元代表的输出为输入神经元的一些抽象特征了,那么是不是可以将训练完成的神经网络,隐层输出作为数据库,表示输出层的输入,采用没有隐层的结构,完成训练过程?

 





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大浪淘沙、

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值