1. 神经网络原理
1.1 神经元模型
- 基本模型:单个神经元处理多个输入(x1,x2,…,xnx_1, x_2, \dots, x_nx1,x2,…,xn),生成一个输出(yyy)。公式为:
y=f(∑i=1nwixi+b) y = f\left( \sum_{i=1}^n w_i x_i + b \right) y=f(i=1∑nwixi+b)
其中:- wiw_iwi 是权重(weight),bbb 是偏置(bias)。
- fff 是激活函数(activation function),引入非线性。
- 矩阵形式:将输入和权重表示为向量,更简洁:
y=f(wx+b) y = f(\mathbf{w} \mathbf{x} + b) y=f(wx+b)
这里 x=[x1,x2,…,xn]T\mathbf{x} = [x_1, x_2, \dots, x_n]^Tx=[x1,x2,…,xn]T 是输入列向量(n×1n \times 1n×1),w=[w1,w2,…,wn]\mathbf{w} = [w_1, w_2, \dots, w_n]w=[w1,w2,…,wn] 是权重行向量(1×n1 \times n1×n)。该模型也称为感知器(Perceptron)。
1.2 神经网络结构
神经网络由多层组成,称为多层感知机(Multi-Layer Perceptron, MLP)。典型结构包括:
- 输入层:
- 输入数据 x\mathbf{x}x(例如一个样本有2个特征,维度为 1×21 \times 21×2)。
- 实践中需重构为列向量(x∈R2×1\mathbf{x} \in \mathbb{R}^{2 \times 1}x∈R2×1)。
- 隐藏层(至少一层或多层):
- 例如,50维隐藏层:
H=w1x+b1 \mathbf{H} = \mathbf{w_1} \mathbf{x} + b_1 H=w1x+b1
其中 w1\mathbf{w_1}w1 是权重矩阵(维度 50×250 \times 250×2),b1b_1b
- 例如,50维隐藏层:

最低0.47元/天 解锁文章
4913

被折叠的 条评论
为什么被折叠?



