
Pytorch
文章平均质量分 73
qq_41627642
这个作者很懒,什么都没留下…
展开
-
Torch_Tensors学习
张量与NumPy 的ndarray类似,不同之处在于张量可以在 GPU 或其他硬件加速器上运行。事实上,张量和 NumPy 数组通常可以共享相同的底层内存,从而无需复制数据(请参阅Bridge with NumPy)。在 PyTorch 中,我们使用张量对模型的输入和输出以及模型的参数进行编码。这里全面描述了 100 多种张量运算,包括算术、线性代数、矩阵操作(转置、索引、切片)、采样等。在下面的函数中,它决定了输出张量的维数。新张量保留参数张量的属性(形状、数据类型),除非显式覆盖。原创 2024-05-19 11:36:34 · 440 阅读 · 0 评论 -
pytorch之优化器、学习率函数学习
无原创 2023-12-14 10:00:38 · 190 阅读 · 0 评论 -
pytorch之torch.utils.model_zoo学习
在这个例子中,我们首先导入了PyTorch和models模块,然后定义了要加载的模型的URL。接下来,我们创建了一个新的ResNet模型实例,并使用load_url函数下载并加载模型的预训练权限。最后,我们将加载的权限重分配给模型。如果该对象已存在于model_dir中,则将其反序列化并返回。model_dir默认值是<hub_dir>/checkpoints where hub_dir是get_dir()返回的目录。在给定 URL 加载 Torch 序列化对象。如果下载的文件是zip文件,它将自动解压。原创 2023-12-25 17:16:12 · 1012 阅读 · 0 评论 -
pytorch之torch基础学习
然后,它将输出按顺序“链接”到每个后续模块的输入,最后返回最后一个模块的输出。或者,也可以创建一个OrderedDict来作为模块的方法接受输入Sequential,forward()将其转发给它包含的第一个模块。然后,它将输出按顺序“链接”到每个后续模块的输入,最后返回最后一个模块的输出。赋值张量没有这样的效果。这意味着model.base的参数将使用默认的学习率1e-2, model.classifier的参数将使用1e-3学习率,所有参数将使用动量0.9。模块的输入是索引列表,输出是相应的词嵌入。原创 2023-12-25 16:53:51 · 1788 阅读 · 0 评论 -
pytorch之torch.utils.data学习
PyTorch 数据加载利用的核心是torch.utils.data.DataLoader类。它表示在数据集上 Python 可迭代,支持map-style and iterable-style datasets(地图样式和可迭代样式数据集),customizing data loading order(自定义数据加载顺序),automatic batching(自动批处理),single- and multi-process data loading(单进程和多进程数据加载),原创 2023-12-14 10:01:59 · 1779 阅读 · 0 评论