
机器学习
netcaoniao
这个作者很懒,什么都没留下…
展开
-
线性回归最小二乘法
在现实当中,我们要研究一个问题,譬如说银行贷款和个人收入问题上面这个问题就是最简单的一元线性模型,首先看几个定义分类问题 监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等)回归问题 如果预测的变量是连续的,我们称其为回归一元线性 回归分析中,如果只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。多元线性 如果回...原创 2019-05-28 13:51:32 · 1118 阅读 · 0 评论 -
L1正则化使得模型参数具有稀疏性的原理
这个问题是在看正则化的问题引出的,正则化(regularization)是为了解决模型过拟合的问题引出的,为什么会发生过拟合的问题呢,Sparsity and Some Basics of L1 Regularization这篇文章中有提到。该文章中以线性回归为例,是数据矩阵,是由标签组成的列向量。该问题具有解析解其中p表示的是特征的维度,n表示的是样本数据的数量,当p远大于n的时...原创 2019-06-08 17:29:19 · 2101 阅读 · 0 评论 -
梯度下降法
假设函数训练数据集的假设函数(hypothesis function),又称模型函数代价函数评估假设函数精确度、拟合度的代价函数(cost function)代价函数的核心功能:代价函数的函数值用来评估假设函数的精确度、拟合度。精确度、拟合度的比较对象是我们提供的训练数据集。如果有一组(θ0,θ1,……,θn)使得代价函数取得最小值,则将这组(θ_0,θ1,……,...原创 2019-06-04 17:22:35 · 511 阅读 · 0 评论