张量基础与创建
在PyTorch中,张量是构建一切计算图的基本数据结构,可以将其视为多维数组的扩展。创建张量是进行一切操作的第一步。最直接的方式是使用torch.tensor()函数从Python列表或序列中直接构造。例如,tensor = torch.tensor([[1, 2], [3, 4]])会创建一个2x2的二维张量。除此之外,PyTorch提供了丰富的初始化函数来生成特定形状和内容的张量。torch.zeros()和torch.ones()可以快速创建指定形状、元素全为0或1的张量,这在初始化权重或掩码时非常有用。torch.rand()生成在[0, 1)区间内均匀分布的随机数张量,而torch.randn()则生成服从标准正态分布的随机数张量,常用于神经网络的权重初始化。
基本索引与切片操作
索引和切片是访问和修改张量特定区域数据的高效手段,其语法与NumPy高度相似,易于上手。对于一个二维张量,可以使用tensor[i, j]来访问第i行、第j列的元素。切片操作则允许我们获取张量的子集,例如tensor[1:3, :]会返回第1行到第2行(注意索引左闭右开)的所有列,形成一个新张量。更高级的索引方式包括使用步长(step),如tensor[::2, ::2]可以隔行隔列地取样。布尔索引则提供了一种基于条件筛选数据的方法,例如tensor[tensor > 0.5]会返回一个一维张量,其中只包含原张量中所有大于0.5的元素。
张量的形状操作
改变张量的形状是深度学习模型中的数据预处理和层间连接中的常见操作。view()方法是最常用的形状变换函数之一,它要求目标形状的总元素数量必须与原张量保持一致。例如,一个形状为(4, 4)的二维张量可以被展平为一维张量tensor.view(16),也可以被重塑为其他形状如tensor.view(2, 8)。reshape()方法的功能与view()类似,但其行为更“安全”,当原张量在内存中是连续存储时,它返回一个视图(view),否则会复制数据以确保返回一个连续的新张量。此外,squeeze()和unsqueeze()用于删除或增加维度为1的轴,这在处理批量数据或对齐张量维度时至关重要。
张量的数学运算
PyTorch支持全面的数学运算,这些运算是构建神经网络模型的核心。
逐元素运算
逐元素运算是指对两个形状相同的张量对应位置的元素进行计算。加法(+ 或 torch.add)、减法、乘法( 或 torch.mul)、除法等都是典型的逐元素运算。例如,c = a + b意味着c中的每个元素c[i, j]都等于a[i, j] + b[i, j]。
矩阵乘法
矩阵乘法是线性代数中的核心操作,在神经网络的全连接层中广泛使用。torch.matmul()函数或@运算符用于执行矩阵乘法。它要求第一个张量的最后一个维度与第二个张量的倒数第二个维度相匹配。对于高于二维的张量,PyTorch会进行批量矩阵乘法,这在处理批量输入时极其高效。
归约操作
归约操作是指对张量的一个或多个维度进行统计计算,并减少这些维度的操作。torch.sum()计算所有元素或指定维度上的和,torch.mean()计算平均值,torch.max()和torch.min()则分别寻找最大值和最小值。这些函数通常包含一个dim参数,用于指定要进行归约的维度。
广播机制的深入解析
广播机制是PyTorch中一个强大而高效的特性,它允许在不同形状的张量之间进行逐元素运算,而无需显式地复制数据。其核心原则是从尾部维度开始向前逐维比较。两个维度兼容的条件是:它们相等,或者其中一个为1。当两个张量的维度数不同时,会在维度较少的张量的形状前面补1,直到维度数相同。然后,对于每个维度,如果大小为1,则该维度会被“拉伸”以匹配另一个张量对应维度的大小。
例如,考虑一个形状为(3, 1)的张量A和一个形状为(1, 4)的张量B进行加法运算。首先,它们的形状被扩展为(3, 4)。然后,A的第一维保持不变,第二维从1复制到4;B的第二维保持不变,第一维从1复制到3。最终,两个形状变为(3, 4)的张量进行逐元素相加。广播机制极大地简化了代码的编写,避免了不必要的显式复制,使得诸如给一个批量数据(形状为[batch, features])加上一个偏置项(形状为[features])这样的操作变得简洁自然。
自动求导与梯度计算
PyTorch的核心特性之一是动态计算图和自动求导(Autograd)。当创建一个张量并设置requires_grad=True时,PyTorch会开始跟踪在其上执行的所有操作,构建一个计算图。在完成前向传播计算后,调用.backward()方法会自动计算所有requires_grad=True.grad属性中。这一机制将研究人员从繁琐的手动梯度计算中解放出来,是深度学习模型能够进行反向传播和参数更新的基石。
519

被折叠的 条评论
为什么被折叠?



