多层网络下的权重矩阵和偏置

多层网络下的权重矩阵和偏置
假设神经网络结构,{9 [80 50 20] 1},9为输入层,[80 50 20]为隐层,1为输出层。

1、net.iw{1,1} 表示输入层到第1层隐层的权重,为80 × 9 80 \times 980×9的矩阵;
2、net.lw{2,1} 表示第1层隐层到第2层隐层的权重,为50 × 80 50 \times 8050×80的矩阵;
3、net.lw{3,2} 表示第2层隐层到第3层隐层的权重,为20 × 50 20 \times 5020×50的矩阵;
4、net.lw{4,3} 表示第3层隐层到输出层的权重,为1 × 20 1 \times 201×20的矩阵;
5、net.b{1} 表示第1层隐层的偏置(阈值),为80 × 1 80 \times 180×1的矩阵;
6、net.b{2} 表示第2层隐层的偏置,为50 × 1 50 \times 150×1的矩阵;
7、net.b{3} 表示第3层隐层的偏置,为20 × 1 20 \times 120×1的矩阵;
8、net.b{4} 表示输出层的偏置,为1 × 1 1 \times 11×1的矩阵;

可以以此类推。

net.iw{1,1}模式是固定的,仅表示输入层到第1层隐层的权重,之后就是net.lw的事情了。

net.lw{i,j} 表示第j层隐层到第i层隐层的权重。net.b{k} 表示第k层隐层的偏置或者说阈值,结构都为列向量。可以看出,这里假设的隐含层只有3层[80 50 20],但net中将最后一层输出层也当隐含层用了,所以i和k可以取到4。

知道权重和偏置的位置,可以用算法优化,如遗传算法等。

转载自:
MATLAB中多层网络的net.lw{i,j}和net.b{k}的含义## 多层网络下的权重矩阵和偏置
假设神经网络结构,{9 [80 50 20] 1},9为输入层,[80 50 20]为隐层,1为输出层。1、net.iw{1,1} 表示输入层到第1层隐层的权重,为80 × 9 80 \times 980×9的矩阵;2、net.lw{2,1} 表示第1层隐层到第2层隐层的权重,为50 × 80 50 \times 8050×80的矩阵;3、net.lw{3,2} 表示第2层隐层到第3层隐层的权重,为20 × 50 20 \times 5020×50的矩阵;4、net.lw{4,3} 表示第3层隐层到输出层的权重,为1 × 20 1 \times 201×20的矩阵;5、net.b{1} 表示第1层隐层的偏置(阈值),为80 × 1 80 \times 180×1的矩阵;6、net.b{2} 表示第2层隐层的偏置,为50 × 1 50 \times 150×1的矩阵;7、net.b{3} 表示第3层隐层的偏置,为20 × 1 20 \times 120×1的矩阵;8、net.b{4} 表示输出层的偏置,为1 × 1 1 \times 11×1的矩阵;可以以此类推。net.iw{1,1}模式是固定的,仅表示输入层到第1层隐层的权重,之后就是net.lw的事情了。net.lw{i,j} 表示第j层隐层到第i层隐层的权重。net.b{k} 表示第k层隐层的偏置或者说阈值,结构都为列向量。可以看出,这里假设的隐含层只有3层[80 50 20],但net中将最后一层输出层也当隐含层用了,所以i和k可以取到4。知道权重和偏置的位置,可以用算法优化,如遗传算法等。转载自:MATLAB中多层网络的net.lw{i,j}和net.b{k}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值