激活函数 Rectified Linear Unit(ReLU) 用于隐层神经元输出Sigmoid用于隐层神经元输出Softmax 用于多分类神经网络输出Linear 用于回归神经网络输出(或二分类问题) 具体分析请看原文章—— 版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 本文链接:https://blog.youkuaiyun.com/Leo_Xu06/article/details/53708647