Hinton Neural Networks课程笔记4c:softmax输出神经元

本文对比了softmax与squared error两种损失函数在分类任务中的表现。指出squared error可能导致概率和不为1且梯度易消失的问题,而softmax通过概率归一化及交叉熵损失函数有效解决了这些问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这节主要介绍softmax,将其与squared error作对比,体现softmax优越性。


squared error的问题

squared error用来做分类器,通常是使用logistic输出神经元的输出与目标值做差取平方。
具体的,输入是z⃗ ,输出是y⃗ =ez⃗ 1+ez⃗ ,目标值为t⃗ 。所有向量的维度等于类别数。其中y⃗ =sigmoid(z

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值