TensorFlow入门-08.激活函数

本文深入探讨了激活函数在神经网络中的核心作用,解释了其如何通过引入非线性转换,使模型能够拟合复杂的函数关系。文章详细介绍了ReLU、sigmoid及tanh等常见激活函数,并提供了TensorFlow实现示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.激活函数

作用:激活函数的作用是实现线性函数的去线性

原理:将神经网络最后一层隐藏层的输出都经过一个非线性函数,那么整个神经网络就是一个非线性函数了。

用法:特征矩阵*权重矩阵+偏置矩阵

数学定义:

A_{1}=\begin{bmatrix} a_{11}, &a_{12}, &a_{13} \end{bmatrix}=f(xW^{(1)}+b) \\ = f([x_{1},x_{2}]\begin{bmatrix} W_{1,1} ^{1} &W_{1,2} ^{1} & W_{1,3} ^{1}\\ W_{2,1} ^{1} &W_{2,2} ^{1} & W_{2,3} ^{1} \end{bmatrix}+\begin{bmatrix} b_{1} &b_{2} & b_{3} \end{bmatrix})\\ =f([ W_{1,1} ^{(1)}x_{1}+W_{2,1} ^{(1)}x_{2}+b_{1}, W_{1,2} ^{(1)}x_{1}+W_{2,2} ^{(1)}x_{2}+b_{2} ,W_{1,3} ^{(1)}x_{1}+W_{2,3} ^{(1)}x_{2}+b_{3}])\\ =[f(W_{1,1} ^{(1)}x_{1}+W_{2,1} ^{(1)}x_{2}+b_{1}) ,f( W_{1,2} ^{(1)}x_{1}+W_{2,2} ^{(1)}x_{2}+b_{2}) ,f( W_{1,3} ^{(1)}x_{1}+W_{2,3} ^{(1)}x_{2}+b_{3}) ]

TensorFlow实现:

a = tf.nn.relu(tf.matmul(x, x1) + biases1)
y = tf.nn.relu(tf.matmul(a, x2) + biases2)

 

2.常见非线性函数:

ReLU函数:
f(x)=max(x,0)

sigmoid函数:

f(x)=\frac{1}{1+e^{-x}}

tanh函数:

f(x)=\frac{1-e^{-2x}}{1+e^{-2x}}

 

 

 

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值