Python实现神经网络Part 2: 训练单个神经元找到最优解

本文探讨了在Python实现神经网络时遇到的训练问题,包括权重维度始终相同和无法收敛到最优解。通过随机初始化权重解决了对称性问题,并引入Adam优化器尝试改进。实验表明,随机初始化和Adam算法能缓解局部最优问题,但不能确保找到全局最优解。建议在实际应用中多次初始化和训练以寻求更好的解决方案。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

主旨

解决本系列第一篇:实现forward和BP算法的神经元提描述的第一个“待解决问题”:训练没有找到最优解
在解决上述问题中,涉及到了随机初始化神经元参数,Adam Optimization寻优方法

问题描述

在上一篇的神经元代码实现和单元测试中,存在着两个问题

  1. 训练结果weight参数的每个维度总是相同:即无论学习率如何调整,只要训练次数足够多,总是收敛到同一个参数组合。并且这个参数组合中 weight 的每个维度的结果总是一模一样

  2. 训练结果没有收敛到最优解:根据输入数据和数学知识,一定存在无穷多组解,使得给定 x⃗ =(2,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值