如何理解 fan_in与 fan_out

在神经网络参数初始化中,fan_in 是一个用于描述层输入维度的指标,具体指当前层接收的输入特征数量(或 “扇入”),是计算初始化权重分布参数(如标准差)的关键依据。

核心含义

fan_in衡量的是 “输入到当前层的连接数”,即当前层每个神经元接收的输入特征数量。
例如:对于一个全连接层,若输入特征维度为 100,输出特征维度为 50,则每个输出神经元会与 100 个输入神经元连接,因此 fan_in = 100。
fan_out(扇出):当前层每个神经元输出的连接数,即输出特征的总数量。

在卷积层中的计算

对于卷积层(如 nn.Conv2d),fan_in 的计算与卷积核参数相关:

fan_in = 输入通道数 × 卷积核高度 × 卷积核宽度

以之前的例子为例:
nn.Conv2d(3, 16, kernel_size=3) 中,输入通道数 = 3,卷积核大小 = 3×3,因此:fan_in = 3 × 3 × 3 = 27
(含义:每个卷积核有 27 个参数,对应 27 个输入特征的连接)。

与 fan_out 的区别

fan_in相对的是 fan_out(“扇出”),指当前层输出的特征数量:

  • 全连接层中,fan_out = 输出特征维度
  • 卷积层中,fan_out = 输出通道数 × 卷积核高度 × 卷积核宽度(上例中 fan_out = 16 × 3 × 3 = 144)。

直观理解

可以把神经元想象成 “节点”,连接数就是 “线”:

  • fan_in 是 “扎进” 当前层节点的线的数量;
  • fan_out 是 “从当前层节点伸出去” 的线的数量。

初始化时,线的 “粗细”(权重值)需要根据线的数量调整,避免信号太强(爆炸)或太弱(消失)。

重要性

初始化方法(如 He 初始化、Xavier 初始化)的核心是通过 fan_infan_out 计算权重的标准差,确保:

  • 前向传播时,各层输出的方差不会因网络加深而急剧放大或缩小;
  • 反向传播时,梯度的方差保持稳定,避免梯度消失或爆炸。

例如:

  • He 初始化对 ReLU 推荐用 fan_in,公式为 标准差 = √(2 / fan_in)
  • Xavier 初始化(适用于 sigmoid/tanh):用 (fan_in + fan_out)/2 平衡输入输出,标准差 σ = √(2/(fan_in + fan_out))

总结:fan_infan_out 量化了层的输入 / 输出连接规模,是权重初始化的 “标尺”,直接影响深层网络的训练稳定性。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值