凸优化与非凸优化
理论上,凸优化从任何一种初始参数出发都会收敛,但实际中会遇到一些数值问题。而用于非凸损失函数的随机梯度下降算法没有这种收敛性保证,并且对参数的初始值很敏感。
维护相关
- 待补充。。。。
引用于 - https://blog.youkuaiyun.com/joymakleson/article/details/107532547
本文探讨了凸优化与非凸优化的区别,指出凸优化理论上能从任意初始参数收敛,但在实践中可能受数值问题影响。非凸优化使用随机梯度下降算法,缺乏收敛性保证,且对初始参数敏感。
维护相关
2万+

被折叠的 条评论
为什么被折叠?