文章目录
课时72代价函数06:43)

❀逻辑斯蒂回归的代价函数
m是样本个数
x^(i)是第i个样本的值
h(x^(i))是第i个样本的输出值(分到第1类的概率)
❀神经网络的代价函数
h(x)是个K维向量,表示分K类的结果
h(x)k表示输出向量的第k个值
h(x^(i))k表示第i个样本的输出结果的第k个值
i从1到m表示m个样本
k从1到K表示分K类
❀神经网络的正则化项
l表示神经网络层数
Sl表示 第l层神经网络的节点个数
i 从1到 Sl 表示第 l层节点数
j 从1到 Sl+1 表示第l+1层节点数
θji 表示 对 本层(l层) xi输出值 应乘的系数 来作为下一个层第j个节点输出值的一部分
课时73反向传播算法11:59
我们需要找出θ,极小化代价函数
那么就需要把代价函数J对θji^(l)求偏导
假设我们只有1个训练样本
前向传播:就是输出第一层的激活值,然后计算第二层的值……直到最后一层
反向传播
原理:求导链式法则


这篇博客详细介绍了吴恩达在Coursera上的机器学习课程中关于神经网络的反向传播算法。内容涵盖了代价函数、正则化项的定义,以及反向传播的基本原理和在实际应用中的注意事项,还包括梯度检测、参数初始化等关键知识点,并提及了该算法在无人驾驶等领域的应用。
770

被折叠的 条评论
为什么被折叠?



