softmax的思想是为神经网络定义新类型的输出层。它开始的方式和sigmoid层(符号层?)一样,通过形成加权来输入:
但是我们不使用sigmoid函数来获得输出,而是在softmax层将softmax函数应用到
根据这个函数,第j个输出神经元的激活(activation)就为(记为式子1):
‘
在分母中,我们对所有输出神经元求和。
假定我们有一个具有4个神经元的神经网络,分别表示为
如图:
关于softmax回归
最新推荐文章于 2025-04-01 12:01:12 发布