题目## 题目
Leaky ReLU(Leaky Rectified Linear Unit)是一种常用的激活函数,其计算公式为:
f
(
x
)
=
max
(
0.01
x
,
x
)
f(x) = \max(0.01x, x)
f(x)=max(0.01x,x)
其中,
x
x
x是输入。
该算法是ReLU激活函数的改进,解决了ReLU在负数输入时梯度为0的问题。是深度学习中常用的激活函数之一。
标准代码如下
def leaky_relu(x,alpha):
return np.maximum(x, alpha)
Gauss-Seidel法是一种求解线性方程组的方法,其基本思想是通过迭代法求解。
具体步骤如下:
- 初始化
- 选择初始解向量 x ( 0 ) x^{(0)} x(0)
- 选择迭代步数 k k k
- 迭代过程
- 对于第i个方程,使用公式:
x i ( k + 1 ) = 1 a i i ( b i − ∑ j = 1 i − 1 a i j x j ( k + 1 ) − ∑ j = i + 1 n a i j x j ( k ) ) x_i^{(k+1)} = \frac{1}{a_{ii}} (b_i - \sum_{j=1}^{i-1} a_{ij}x_j^{(k+1)} - \sum_{j=i+1}^{n} a_{ij}x_j^{(k)}) xi(k+1)=aii1(bi−∑j=1i−1aijxj(k+1)−∑j=i+1naijxj(k))
其中: - a i j a_{ij} aij 是矩阵A中第i行第j列的元素
- b i b_i bi 是向量b中第i个元素
- x j ( k ) x_j^{(k)} xj(k) 是第k次迭代时的解向量中第j个元素
- 对于第i个方程,使用公式:
- 迭代终止条件
- 当 x ( k + 1 ) x^{(k+1)} x(k+1)与 x ( k ) x^{(k)} x(k)的差值小于给定阈值时,迭代终止
- 本题中使用迭代次数代替阈值成为终止条件
标准代码如下
def gauss_seidel_it(A, b, x):
rows, cols = A.shape
for i in range(rows):
x_new = b[i]
for j in range(cols):
if i != j:
x_new -= A[i, j] * x[j]
x[i] = x_new / A[i, i]
return x
def gauss_seidel(A, b, n, x_ini=None):
x = x_ini or np.zeros_like(b)
for _ in range(n):
x = gauss_seidel_it(A, b, x)
return x