吴恩达 不太理解的一些题目

博客讨论了Logistic回归的权重初始化对模型学习能力的影响。虽然Logistic回归没有隐藏层,但如果权重初始化为零,模型可能无法有效学习。因为Logistic回归的导数依赖于非零输入,所以在第二次迭代中,非常量输入会导致权重差异,从而进行有效学习。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Week 3

1、Logistic回归的权重w应该随机初始化,而不是全零,因为如果初始化为全零,那么逻辑回归将无法学习到有用的决策边界,因为它将无法“破坏对称性”,是正确的吗?
错,知识点1:只有深层神经网络才不能初始化为零,训练多少次都是每个节点一样的,但Logistic回归没有隐藏层所以无所谓。
2、Logistic回归没有隐藏层。 如果将权重初始化为零,则Logistic回归中的第一个示例x将输出零,但Logistic回归的导数取决于不是零的输入x(因为没有隐藏层)。 因此,在第二次迭代中,如果x不是常量向量,则权值遵循x的分布并且彼此不同。
我的理解就说x~X分布

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值