简答来说,每一个类型都有出现的概率,而softmax就是想让和真实值相同的那个类的概率通过不断的迭代慢慢变大,这样整个损失函数就会慢慢变小。
请参考下面的博文;
https://www.cnblogs.com/wangyarui/p/8670769.html
https://blog.youkuaiyun.com/as472780551/article/details/86554478
本文深入解析Softmax函数在机器学习中的应用,阐述其如何通过迭代调整概率分布,使得与真实值对应类别的概率逐渐增大,从而优化损失函数,提升模型预测准确性。
简答来说,每一个类型都有出现的概率,而softmax就是想让和真实值相同的那个类的概率通过不断的迭代慢慢变大,这样整个损失函数就会慢慢变小。
请参考下面的博文;
https://www.cnblogs.com/wangyarui/p/8670769.html
https://blog.youkuaiyun.com/as472780551/article/details/86554478
2119
1242
1138
876
1280

被折叠的 条评论
为什么被折叠?