深度学习之激活函数

本文通过代码展示了Sigmoid、ReLU、ReLU6、Swish和HardSwish等几种常用的激活函数,并通过绘制曲线图直观地对比了它们的形状特征。这些函数在神经网络中起到非线性转换的作用,影响模型的学习能力。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

最近偶然间把近几年常用的一些激活函数打印了出来,发现他们好像啊。

Activations

代码如下:

import numpy as np
import matplotlib.pylab as plt

def Sigmoid(x):
    return 1./(1.+np.exp(-x))

def ReLU(x):
    return np.maximum(0, x)

def ReLU6(x):
    return np.minimum(6., np.maximum(0, x))

def Swish(x):
    return x * Sigmoid(x)

def HardSwish(x):
    return x*ReLU6(x+3.)/6.


x = np.arange(-10, 10, 0.1)

y1 = Sigmoid(x)
y2 = ReLU(x)
y3 = ReLU6(x)
y4 = Swish(x)
y5 = HardSwish(x)


plt.plot(x, y1)
plt.plot(x, y2)
plt.plot(x, y3)
plt.plot(x, y4)
plt.plot(x, y5)
plt.legend(['Sigmoid(x)', 'ReLU(x)', 'ReLU6(x)', 'Swish(x)', 'HardSwish(x)'], loc='upper left')
plt.show()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值