卷积神经网络:原理、实现与架构解析
1. 卷积层的计算原理
卷积层神经元的输出计算虽然因各种不同的索引显得有些复杂,但本质上就是计算所有输入的加权和,再加上偏置项。其计算公式如下:
[z_{i,j,k} = b_k + \sum_{u = 0}^{f_h - 1} \sum_{v = 0}^{f_w - 1} \sum_{k’ = 0}^{f_{n’} - 1} x_{i’,j’,k’} \cdot w_{u,v,k’,k}]
其中:
- (i’ = i \times s_h + u)
- (j’ = j \times s_w + v)
各参数含义如下表所示:
| 参数 | 含义 |
| ---- | ---- |
| (z_{i,j,k}) | 卷积层(第 (l) 层)特征图 (k) 中第 (i) 行、第 (j) 列神经元的输出 |
| (s_h) 和 (s_w) | 垂直和水平步长 |
| (f_h) 和 (f_w) | 感受野的高度和宽度 |
| (f_{n’}) | 前一层(第 (l - 1) 层)的特征图数量 |
| (x_{i’,j’,k’}) | 第 (l - 1) 层、第 (i’) 行、第 (j’) 列、特征图 (k’) (如果前一层是输入层,则为通道 (k’) )神经元的输出 |
| (b_k) | 特征图 (k) (第 (l) 层)的偏置项,可以看作调整特征图 (k) 整体亮度的旋钮 |
| (w_{u,v,k’,k}) | 第 (l) 层特征图 (k) 中任意神经元与其位于第 (u) 行、第 (v) 列(相对于神经元的感受野)、特征图 (k’) 的输
超级会员免费看
订阅专栏 解锁全文
14万+

被折叠的 条评论
为什么被折叠?



