机器学习
远_山
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
6-正则化
1、过拟合问题线性模型分类问题过拟合校正1.丢弃一些不能帮助我们正确预测的特征。可以是手工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(例如 PCA)2.正则化。 保留所有的特征,但是减少参数的大小(magnitude)。2、代价函数正则化基本方法在一定程度上减小参数值,增加参数的系数,修改代价函数,从而形成负反馈。r为正则化参数,一般情况下,第一个参数不进行正则化。r过大,则所有参数最小化,会得到一条趋向于平行于x轴的平行线3、正则化线性回归模型代价函数梯度下降原创 2020-07-25 17:42:50 · 174 阅读 · 0 评论 -
5-逻辑回归
1、分类问题定义尝试预测的是结果是否属于某一个类逻辑回归问题输出值永远在 0 到 1 之间(仍输入分类算法)2、假说表示S型图像预测import numpy as npdef sigmoid(z):return 1 / (1 + np.exp(-z))3、边界函数预测为 1 的区域和预测为 0 的区域分隔开的函数(直线、曲线),根据数据所呈现的分布情况进行选择。4、代价函数线性回归模型的代价函数(即所有模型误差的平方和),在逻辑回归模型中,呈现出许多局部最小值,是非凸函原创 2020-07-25 15:09:17 · 279 阅读 · 0 评论 -
4-多变量线性回归
1、多维特征符号含义n 代表特征的数量???? (????) 代表第 ???? 个训练实例,是特征矩阵中的第????行,是一个向量(vector)。代表特征矩阵中第 ???? 行的第 ???? 个特征,也就是第 ???? 个训练实例的第 ???? 个特征。引入X0=1,则2、多变量梯度下降多变量代价函数def computeCost(X, y, theta):inner = np.power(((X * theta.T) - y), 2)return np.sum(inner)原创 2020-07-24 23:02:39 · 325 阅读 · 0 评论 -
3-线性代数基础
1、矩阵和向量矩阵维数:行数 X 列数加法:行列数必须相等乘法:每个元素都要相乘矩阵乘法:???? × ????矩阵乘以???? × ????矩阵,变成???? × ????矩阵。【不满足交换律、满足结合律】单位矩阵:从左上角到右下角的对角线元素为1,其他为0向量一般为列向量分类:1索引向量,0索引向量矩阵向量乘法逆、转置逆矩阵:转置矩阵:转置性质:matlab中矩阵转置:打撇...原创 2020-07-24 16:44:05 · 231 阅读 · 0 评论 -
2-单变量线性回归
1、模型表示单变量线性回归问题学习算法的解决方案或函数中,只含有一个特征 / 输入 变量回归问题符号表示???? :训练集中实例的数量???? :特征或输入变量???? :目标变量或输出变量(????,????) :训练集中的实例(???? (????) ,???? (????) ) :第???? 个观察实例ℎ :学习算法的解决方案或函数,也称为假设(hypothesis)2、代价函数(平方误差函数)。数据库挖掘、医疗记录、计算生物学、机械应用、无人直升机、手写识别、自然语言处理、计算机视觉等。概念定义在进行特定编程的情况下,给予计算机学习能力的领域。(Arthur Samuel)程序能从经验中学习,解决任务,达到性能度量值P,当且仅当,有了经验后,经过P评判,程序在处理时的性能有所提升。(T原创 2020-07-24 11:15:15 · 130 阅读 · 0 评论
分享