多层网络下的权重矩阵和偏置
假设神经网络结构,{9 [80 50 20] 1},9为输入层,[80 50 20]为隐层,1为输出层。
1、net.iw{1,1} 表示输入层到第1层隐层的权重,为80 × 9 80 \times 980×9的矩阵;
2、net.lw{2,1} 表示第1层隐层到第2层隐层的权重,为50 × 80 50 \times 8050×80的矩阵;
3、net.lw{3,2} 表示第2层隐层到第3层隐层的权重,为20 × 50 20 \times 5020×50的矩阵;
4、net.lw{4,3} 表示第3层隐层到输出层的权重,为1 × 20 1 \times 201×20的矩阵;
5、net.b{1} 表示第1层隐层的偏置(阈值),为80 × 1 80 \times 180×1的矩阵;
6、net.b{2} 表示第2层隐层的偏置,为50 × 1 50 \times 150×1的矩阵;
7、net.b{3} 表示第3层隐层的偏置,为20 × 1 20 \times 120×1的矩阵;
8、net.b{4} 表示输出层的偏置,为1 × 1 1 \times 11×1的矩阵;
可以以此类推。
net.iw{1,1}模式是固定的,仅表示输入层到第1层隐层的权重,之后就是net.lw的事情了。
net.lw{i,j} 表示第j层隐层到第i层隐层的权重。net.b{k} 表示第k层隐层的偏置或者说阈值,结构都为列向量。可以看出,这里假设的隐含层只有3层[80 50 20],但net中将最后一层输出层也当隐含层用了,所以i和k可以取到4。
知道权重和偏置的位置,可以用算法优化,如遗传算法等。
转载自:
MATLAB中多层网络的net.lw{i,j}和net.b{k}的含义## 多层网络下的权重矩阵和偏置
假设神经网络结构,{9 [80 50 20] 1},9为输入层,[80 50 20]为隐层,1为输出层。1、net.iw{1,1} 表示输入层到第1层隐层的权重,为80 × 9 80 \times 980×9的矩阵;2、net.lw{2,1} 表示第1层隐层到第2层隐层的权重,为50 × 80 50 \times 8050×80的矩阵;3、net.lw{3,2} 表示第2层隐层到第3层隐层的权重,为20 × 50 20 \times 5020×50的矩阵;4、net.lw{4,3} 表示第3层隐层到输出层的权重,为1 × 20 1 \times 201×20的矩阵;5、net.b{1} 表示第1层隐层的偏置(阈值),为80 × 1 80 \times 180×1的矩阵;6、net.b{2} 表示第2层隐层的偏置,为50 × 1 50 \times 150×1的矩阵;7、net.b{3} 表示第3层隐层的偏置,为20 × 1 20 \times 120×1的矩阵;8、net.b{4} 表示输出层的偏置,为1 × 1 1 \times 11×1的矩阵;可以以此类推。net.iw{1,1}模式是固定的,仅表示输入层到第1层隐层的权重,之后就是net.lw的事情了。net.lw{i,j} 表示第j层隐层到第i层隐层的权重。net.b{k} 表示第k层隐层的偏置或者说阈值,结构都为列向量。可以看出,这里假设的隐含层只有3层[80 50 20],但net中将最后一层输出层也当隐含层用了,所以i和k可以取到4。知道权重和偏置的位置,可以用算法优化,如遗传算法等。转载自:MATLAB中多层网络的net.lw{i,j}和net.b{k}