softmax函数_反向传播之一:softmax函数

本文深入探讨了softmax函数,包括其在神经网络中的作用、反向传播过程、数值稳定性优化以及与交叉熵损失函数的结合。通过实例展示了softmax作为激活函数时的局限性,并介绍了交叉熵作为代价函数的原因。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

3e73961f78f8ac99c3148676f887da1d.png

最好的学习方法就是把内容给其他人讲明白。

如果你看了我的文章感觉一头雾水,那是因为我还没学透。


我目前的理解是:反向传播是神经网络的精要,没搞明白反向传播,神经网络就还没入门。

我的学习计划是:

(1)推导一遍公式;

(2)写一遍纯numpy代码;

(3)看一遍源码。

本系列所有文章都不是原创,只是收集网上前期那些认真的牛人的文章于一处,手撸一遍推导,以求入门。于大家也是方便,于自己是一遍学习。


本文来源

帐号登录​blog.youkuaiyun.com
  1. softmax函数

numpy代码:

import numpy as np
def softmax(x):
    x = np.exp(x)/np.sum(np.exp(x))
    return x
print(softmax
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值