在PyTorch中,权重矩阵的形状是根据线性层(nn.Linear
)的两个主要参数自动计算得到的:in_features
(输入特征的数量)和out_features
(输出特征的数量)。权重矩阵的形状总是(out_features, in_features)
。
以下是权重矩阵形状计算的步骤:
-
输入特征数(
in_features
):- 这是线性层输入数据的每个样本的特征数量。例如,如果你的输入数据是一个形状为
(batch_size, in_features)
的张量,那么in_features
就是这个张量的第二个维度的大小。
- 这是线性层输入数据的每个样本的特征数量。例如,如果你的输入数据是一个形状为
-
输出特征数(
out_features
):- 这是你希望线性层输出的特征数量。这个值由你根据网络的设计和任务需求来设定。
-
权重矩阵形状计算:
- 权重矩阵的形状是根据
in_features
和out_features
计算得到的。具体来说,权重矩阵的每一行对应一个输出特征,每一列对应一个输入特征。因此,权重矩阵的形状是(out_features, in_features)
。
- 权重矩阵的形状是根据
例如,如果你定义了一个nn.Linear
层如下:
self.layer0 = nn.Linear(in_features=128, out_features=512)
那么这个线性层的权重矩阵self.layer0.weight
的形状将会是(512, 128)
。这意味着权重矩阵有512行和128列,其中每一行都对应于输出特征,每一列都对应于输入特征。
这种形状的设计允许权重矩阵与输入数据进行矩阵乘法,输出一个形状为(batch_size, out_features)
的张量,其中batch_size
是输入数据的批次大小,out_features
是线性层的输出特征数量。
总结来说,权重矩阵的形状是由线性层的输入和输出特征数决定的,计算方式简单直接:(out_features, in_features)
。