题目## 题目
Leaky ReLU(Leaky Rectified Linear Unit)是一种常用的激活函数,其计算公式为:
f ( x ) = max ( 0.01 x , x ) f(x) = \max(0.01x, x) f(x)=max(0.01x,x)
其中, x x x是输入。
该算法是ReLU激活函数的改进,解决了ReLU在负数输入时梯度为0的问题。是深度学习中常用的激活函数之一。
标准代码如下
def leaky_relu(x,alpha):
return np.maximum(x, alpha)
Gauss-Seidel法是一种求解线性方程组的方法,其基本思想是通过迭代法求解。
具体步骤如下:
- 初始化
- 选择初始解向量 x ( 0 ) x^{(0)} x(0)
- 选择迭代步数 k k k
- 迭代过程
- 对于第i个方程,使用公式:
x i ( k + 1 ) = 1 a i i ( b i − ∑ j = 1 i − 1 a i j x j ( k + 1 ) − ∑ j = i + 1 n a i j x j ( k ) ) x_i^{(k+1)} = \frac{1}{a_{ii}} (b_i - \sum_{j=1}^{i-1} a_{ij}x_j^{(k+1)} - \sum_{j=i+1}^{n} a_{ij}x_j^{(k)}) x
- 对于第i个方程,使用公式:

最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



