机器学习_wed_01

本文介绍了机器学习的基础概念,包括线性回归、逻辑回归和神经网络。线性回归用于连续变量预测,逻辑回归处理分类问题,其代价函数和梯度下降进行了详细阐述。此外,还讨论了正则化防止过拟合,以及高级优化算法如梯度检测和高级优化库。最后,提到了神经网络的代价函数、反向传播算法及其在多分类问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 线性回归

2.8 作业_01_线性回归

线性回归链接

6 逻辑回归

6.1 分类问题


通过上面这个取值在[0,1]的函数,曲线类似arctan x进行拟合,通过数据计算出thyta向量值,然后让Z>0,解出x的范围如下图

6.3 决策边界

(thyda向量-3,1,1.)

6.4 代价函数

逻辑回归的代价函数不能使用之前的线性回归那样的平方做差之后当代价函数了,因为逻辑回归的待拟合的函数复杂,使用平方误差的方式写出来的代价函数是非凸的,有很多的局部最优解,不能使用梯度下降法解除全局最优解,如下图

使用新的代价函数,如下图:

下边这个

6.5 简化代价函数与梯度下降

使用一个式子代表逻辑回归的代价函数

然后执行梯度下降,每一个theta的更新都是当前值减去学习率 * 偏导项,虽然更新的式子是一样的,但是表达的是不一样的,因为原来的线性回归和逻辑回归的假设函数是不一样的,如下图所示:

6.6 高级优化

  • gradient descent
  • conjugate gradient
  • BFGS
  • L-BFGS
    相应语言有相应的高级算法的库,自己需要写一个适配的函数,来调用这个库里的函数。

6.7 多分类

多分几次

6.8 作业

参考

自己github链接

7 过拟合

7.1 过拟合

  • 减少特征变量
  • 正则化

7.2 代价函数

为了防止过拟合项,会通过增加惩罚项来减少各个特征的属性,修改之后的代价函数如下:

7.3 线性回归正则化

1、使用梯度下降求解

2、当使用矩阵求解时,通过正则化,可以使得中间产生的那个矩阵一定是可逆的。

7.4 逻辑回归的正则化

总结:
学了线性回归
学了逻辑回归
学了高级算法
学了正则化

8 非线性假设

使用神经网络搞出来逻辑运算

  • and

  • or


  • (not x1) and (not x2)
    如下图

  • XNOR
    计算XNOR逻辑运算
    XOR是异或,XNOR取值与异或相反,
    通过神经网络实现如下图

9神经网络

9.1 神经网络的代价函数

使用逻辑回归的那个代价函数,使用正则化项,因为有多个输出,所以有两层求和大括号

9.2 反向传播算法

定义:detal = y(i) - (i):真实值-预测的激活项
之后再执行反向传播算法:比如;detal2 = theta1 * detal1 + theta22 * detal22
和前向传播一样
后向传播的目的是为了测评修改权重。

9.4 参数展开

就是使用梯度下降算法得到代价函数之后的返回值(向量形式),当再去调用高级函数如:fminunc高级学习算法时,传入参数是矩阵,所以,需要使用相关的转换函数进行格式化转换。

8.5 梯度检测

使用另外一种慢的算法计算出来,比较两个结果的一致性,当比对正确之后,就把梯度检验关掉。(梯度算法执行检验操作。)

8.7 组合到一起

有了偏导就有了梯度,在神经网络中,代价函数通过梯度下降算法进行下降,通过反向传播算法来修正梯度下降的方向。

11.2 误差分析

当遇到一个问题时,先简单实现一个算法,再通过数值分析,来确定不同的方式进行下一步操作的选择。有明确的测试规则之后就方便处理了。

11.3 不对称分类的误差评估

12.1 支持向量机

13 无监督学习

13.2 k-means算法

16 推荐系统

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值