softmax:对输入数据的最后一维进行softmax,输入数据应形如
(nb_samples, nb_timesteps, nb_dims)或(nb_samples,nb_dims)elu
selu: 可伸缩的指数线性单元(Scaled Exponential Linear Unit),参考Self-Normalizing Neural Networks
softplus
softsign
relu
tanh
sigmoid
Sigmoid函数由下列公式定义

hard_sigmoid
linear
Keras 激活函数 Activation
激活函数详解
最新推荐文章于 2025-10-19 01:18:35 发布
本文详细介绍了多种常见的激活函数,包括Softmax、ELU(可伸缩的指数线性单元)、Softplus、Softsign、ReLU、Tanh、Sigmoid及其变种Hard Sigmoid等。这些函数在神经网络中起到关键作用,能够引入非线性特性,从而提升模型的表现力。
部署运行你感兴趣的模型镜像
您可能感兴趣的与本文相关的镜像
ComfyUI
AI应用
ComfyUI
ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等
1536

被折叠的 条评论
为什么被折叠?



