理论
sigmod是什么?


softmax是啥


解空间,两个解z1、z2
这两个加起来如果是softmax就是1,如果是sigmod就只在0,1就可以。sigmod的解空间更大一些。
softmax的pytorch
torch.nn.functional.softmax(input, dim=None)
sigmod的pytorch
https://blog.youkuaiyun.com/qq_39938666/article/details/88809726
本文探讨了Sigmod函数与Softmax函数在概率分布上的差异,特别强调了Sigmod的解空间更广泛。通过PyTorch库实例,介绍了如何在两种函数中进行操作,如torch.nn.functional.softmax及其对应于Sigmod的资源链接。
理论
sigmod是什么?


softmax是啥


解空间,两个解z1、z2
这两个加起来如果是softmax就是1,如果是sigmod就只在0,1就可以。sigmod的解空间更大一些。
softmax的pytorch
torch.nn.functional.softmax(input, dim=None)
sigmod的pytorch
https://blog.youkuaiyun.com/qq_39938666/article/details/88809726
您可能感兴趣的与本文相关的镜像
PyTorch 2.5
PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

被折叠的 条评论
为什么被折叠?