神经网络与深度学习:梯度下降法

1.基本原理

一元凸函数求极值
在这里插入图片描述
二元凸函数求极值
在这里插入图片描述

2.梯度下降法实现线性回归问题

一元线性回归可以转换为二元函数求极值的问题
在这里插入图片描述
在这里插入图片描述
学习率:对于凸函数,只要学习率设置的足够小,可以保证一定收敛。
超参数:在开始学习之前设置,不是通过训练得到的。
(包含学习率、迭代次数等)

归一化/标准化:将数据的值限制在一定的范围之内
使所有属性处于同一个范围、同一个数量级下;更快收敛到最优解;提高学习器的精度。
在这里插入图片描述

3.模型评估

误差(error):学习器的预测输出和样本的真实标记之间的差异
训练误差(traning error):训练集上的误差
泛化误差(generalization error):在新样本上的误差
过拟合(overfitting):学习过度,在训练集上表现很好,在新样本泛化误差很大
欠拟合(underfitting):学习不足,没有学习到样本中的通用的特征
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值