
深度学习
Eifey
这个作者很懒,什么都没留下…
展开
-
pytorch10.17 linear-regression
用符号表示的矩阵𝐗 可以很方便地引用我们整个数据集的𝑛个样本。其中,𝐗的每一行是一个样本,每一列是一种特征。给定一个数据集,我们的目标是寻找模型的权重𝐰和偏置𝑏, 使得根据模型做出的预测大体符合数据里的真实价格。对于线性回归,每个输入都与每个输出(在本例中只有一个输出)相连, 我们将这种变换(我们把试图预测的目标(比如预测房屋价格)称为。每行数据(比如一次房屋交易相对应的数据)称为。因此,我们通常会在每次需要计算更新的时候随机抽取一小批样本, 这种变体叫做。预测所依据的自变量(面积和房龄)称为。原创 2023-10-17 11:32:01 · 67 阅读 · 0 评论 -
pytorch10.16 probability lookup-api
为了抽取一个样本,即掷骰子,我们只需传入一个概率向量。输出是另一个相同长度的向量:它在索引𝑖处的值是采样结果中𝑖出现的次数。(distribution)看作是对事件的概率分配。将概率分配给一些离散选择的分布称为。因此我们使用深度学习框架的函数同时抽取多个样本,得到我们想要的任意形状的独立样本数组。(sampling)。我们把从概率分布中抽取样本的过程称为。原创 2023-10-16 21:07:04 · 85 阅读 · 1 评论 -
pytorch10.16 calculus autograd
我们不会在每次对一个参数求导时都分配新的内存。因为我们经常会成千上万次地更新相同的参数,每次都分配新的内存可能很快就会将内存耗尽。注意,一个标量函数关于向量𝐱的梯度是向量,并且与𝐱具有相同的形状。想使用反向传播函数,那么一定要先给出表达式的结果,然后再去backward。输出为tensor([0., 1., 4., 9.])原创 2023-10-16 20:58:37 · 84 阅读 · 1 评论 -
pytorch10.16 pandas linear-algebra
通常将向量记为粗体、小写的符号 (例如,𝐱、𝐲和𝐳)。向量是一阶张量,矩阵是二阶张量。张量用特殊字体的大写字母表示(例如,𝖷、𝖸和𝖹)将张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都将与标量相加或相乘。此函数不会沿任何轴降低输入张量的维度。求和axis=0求出来的结果是行,axis=1求出来的结果是列。沿着行和列对矩阵求和,等价于对矩阵的所有元素进行求和。torch.mm(A, B) 矩阵与矩阵的乘法。的维数(其长度)相同。时,会执行矩阵-向量积。的列维数(沿轴1的长度)必须与。原创 2023-10-16 19:47:13 · 79 阅读 · 1 评论 -
pytorch10.15 ndarry
分别是3×13×1和1×21×2矩阵,如果让它们相加,它们的形状不匹配。如果只想知道张量中元素的总数,可以检查它的大小(size)。函数或Python的内置函数int float。来调用此自动计算出维度的功能。为一个更大的3×23×2矩阵,如下所示:矩阵。实现广播机制需要保证有一个相同大小的维度。将复制行,然后再按元素相加。幸运的是,我们可以通过。**运算符是求幂运算。原创 2023-10-16 11:01:19 · 75 阅读 · 1 评论 -
pytorch学习10.15 序言
什么是参数呢?你可以把参数看作是旋钮,我们可以转动旋钮来调整程序的行为。任一调整参数后的程序,我们称为模型(model)。通过操作参数而生成的所有不同程序(输入-输出映射)的集合称为“模型族”。使用数据集来选择参数的元程序被称为学习算法。原创 2023-10-15 16:51:07 · 71 阅读 · 1 评论