纸质笔记本很容易丢失,还是记在网上吧
线性回归是最基础的机器学习模型,假设结果和特征关系为线性,从而来预测结果
预测函数为
训练的时候要最小化代价函数
根据中心极限定理,多个独立原因导致的分布是正态分布。那么多个样本的误差满足正态分布,可以通过最大化似然函数推出训练过程其实就是最小二乘法。
因为对于单个样本,误差满足
即
假设所有样本是独立同分布的,那么所有样本的似然函数为
为了计算方便取对数
最大化 l(theta)就是最小化
纸质笔记本很容易丢失,还是记在网上吧
线性回归是最基础的机器学习模型,假设结果和特征关系为线性,从而来预测结果
预测函数为
训练的时候要最小化代价函数
根据中心极限定理,多个独立原因导致的分布是正态分布。那么多个样本的误差满足正态分布,可以通过最大化似然函数推出训练过程其实就是最小二乘法。
因为对于单个样本,误差满足
即
假设所有样本是独立同分布的,那么所有样本的似然函数为
为了计算方便取对数
最大化 l(theta)就是最小化