softmax主要用于输出层,作用是将所得一维矩阵中每个元素的大小量化成概率值。更符合人类直观感受所预测准确率。
其公式为:
如在mnist中应用。xw+b所得是一个[0,1,2,3,4,5,6,7,8,9]一维矩阵,此时加入pre = tf.nn.softmax(xw+b)得出是[0,1/45,2/45,3/45,4/45…9/45]元素为各个数字的概率大小。在其后的loss函数中,利用loss=tf.reduce_mean(tf.squere(y-pre))。这里y是one-hot类型。假设y是数字3,则其one-hot为[0,0,0,1,0,0,0,0,0,0]。
关于softmax函数

最新推荐文章于 2025-04-25 17:27:05 发布
