作业内容:采用不同的激活函数进行训练,并画出不同激活函数的损失曲线进行比较。
PyTorch提供的激活函数有很多,具体可以从以下链接查看:
torch.nn — PyTorch 2.0 documentation
- Hardsigmoid:
torch.nn.Hardsigmoid()
激活公式如下:

训练的损失曲线如下:

- Sigmoid
torch.nn.Sigmoid()
激活公式如下:

训练的损失曲线如下:

- ReLU
torch.nn.ReLU()
激活公式如下:
![]()
训练的损失曲线如下:

- Softplus
torch.nn.Softplus()
激活公式如下:

训练的损失曲线如下:

按照老师讲的方法使用其他激活函数的时候总是出现以下报错,不知道为什么,是因为这个激活函数不适合此次训练吗?有大佬可以指点一下吗。

激活函数对比实验
本文通过实验对比了多种PyTorch内置激活函数的效果,包括Hardsigmoid、Sigmoid、ReLU及Softplus等,并绘制了各自的训练损失曲线。同时,还探讨了在使用某些激活函数时遇到的问题。
9642

被折叠的 条评论
为什么被折叠?



