机器学习
奔跑的星黛露
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
吴恩达机器学习学习笔记 --- 支撑向量机
【监督学习】 (1)更改逻辑回归中的假设函数 (2)更改逻辑回归中的损失函数 (3)假设函数 (4)对大间距的理解 【决定边界的方式】 【选择黑色的边界,即与两边样本间距最大的边界】 【此时设置的C(参数)非常的大】 【当C非常大时,异常点对边界的影响会很大(从黑到紫),如果C比较小,可以忽略异常点得到正确的边界】 (5)高斯核函数 【参数变化】 【标记点与相似函数定义新的特征变量】 (6)选择标记点 【标记点等于训练样本】 ...原创 2022-05-26 13:00:46 · 196 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 神经网络
神经网络原创 2022-05-23 16:50:59 · 489 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 逻辑回归 + 正则化
逻辑回归 正则化 【使用线性回归解决逻辑回归不是一个很好的办法】 (2)假设函数 (3)假设函数输出的含义 【h(x):当输入为x时,输出为y的概率】 ...原创 2022-05-18 20:58:15 · 430 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 多变量线性回归
(1)符号表示 (2)假设函数 (3)损失函数 (4)梯度下降法用于多变量线性回归 (5)特征缩放 (6)均值归一化 【目的:让梯度下降速度更快,收敛迭代次数更少】 (7)代价函数与迭代次数 【右侧为自动收敛检测】 【学习速率过大,可能无法达到收敛】 【选择更小的学习速率已到达收敛】 (8)多项式回归 【通过设置变量与变量之间的关系转化为线性回归】 ...原创 2022-05-17 21:37:28 · 328 阅读 · 0 评论 -
吴恩达机器学习学习笔记 --- 单变量线性回归
机器学习 --- 单变量线性回归原创 2022-05-16 23:44:55 · 456 阅读 · 0 评论
分享