
吴恩达机器学习
文章平均质量分 92
我在阳澄湖畔吃炸鸡
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习视频第七八部分
文章目录前言一、第七章二、第八章 前言 吴恩达机器学习视频第 一、第七章 神经网络模型是许多神经元按照不同层级组织起来的网络,每一层的输出变量都是下一层的输入变量。这些神经元(也叫激活单元,activation unit)采纳一些特征作为输入,并且根据本身的模型提供一个输出。下图为一个 3 层的神经网络,第一层称为输入层(Input Layer),最后一 层称为输出层(Output Layer),中间一层称为隐藏层(Hidden Layers)。在神经网络中,参数又可被称为权重(weight)。我们为每一层原创 2021-05-15 18:05:31 · 89 阅读 · 0 评论 -
吴恩达机器学习视频第五第六部分
文章目录前言一、逻辑回归1.介绍2.代价函数3.梯度下降二、过拟合问题1.正则化2.正则化与线性回归3.正则化与逻辑回归 前言 吴恩达机器学习第五第六部分 一、逻辑回归 1.介绍 分类问题,希望分类器的输出值在 0 和 1 之间,因此,假设函数需要满足预测值要在 0 和 1 之间。 回归模型的假设是: hθ(x)=g(θTX)h_\theta(x)=g(\theta^TX)hθ(x)=g(θTX) g 代表逻辑函数(logistic function), 是一个常用的逻辑函数为 S 形函数(Sigmoi原创 2021-05-14 19:35:12 · 81 阅读 · 0 评论 -
吴恩达机器视频学习《多特征线性回归方程》部分
文章目录前言一、多变量线性回归介绍二、代价函数三、特征缩放四、正规方程 前言 吴恩达机器学习第四部分《多变量线性回归》 一、多变量线性回归介绍 引入多种特征后的假设h模型 对于多特征的模型,我们对于其的特征进行分析: xix^ixi 为第i个实例 xjix_j^ixji 为第个实例的第j个特征值 假设模型h表示为: hθ(x)=θ0+θ1x1+θ2x2+⋅⋅⋅+θnxnh_{\theta(x)} = \theta_0+\theta_1x_1+\theta_2x_2+\cdot\cdot\cdot+\翻译 2021-05-13 18:55:52 · 130 阅读 · 0 评论