pytorch
文章平均质量分 64
dwjf321
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
PyTorch基本使用-线性回归案例
我们使用 PyTorch 的各个组件来构建线性回归的实现。学习目标:掌握PyTorch构建线性回归模型相关API。原创 2024-12-11 18:12:29 · 546 阅读 · 0 评论 -
PyTorch基本使用-自动微分模块
训练神经网络时,最常用的算法就是反向传播。在该算法中,参数(模型权重)会根据损失函数关于对应参数的梯度进行调整。为了计算这些梯度,PyTorch 内置了名为。接下来我们使用这个结构进行自动微分模块的介绍。我们使用 backward 方法、grad 属性来实现梯度的计算和访问。学习目的:掌握自动微分模块的使用。当X为多维张量时梯度计算。当X为标量时梯度的计算。原创 2024-12-10 17:35:49 · 745 阅读 · 0 评论 -
PyTorch基本使用-张量的拼接操作
torch.cat()函数可以将两个张量根据指定的维度拼接起来,不改变维度数。学习目标:掌握torch.cat()使用。原创 2024-12-09 18:22:53 · 314 阅读 · 0 评论 -
PyTorch基本使用-张量的形状操作
transpose 函数可以实现交换张量形状的指定维度, 例如: 一个张量的形状为 (2, 3, 4) 可以通过 transpose 函数把 3 和 4。块组成的,它们并没有存储在整块的内存中,view 函数无法对这样的张量进行变形处理,例如: 一个张量经过了。squeeze 函数删除形状为 1 的维度(降维),unsqueeze 函数添加形状为1的维度(升维)。学习目标:掌握reshape()、squeze()、unsqueeze()、transpose()permute 函数可以一次交换更多的维度。原创 2024-12-09 18:11:24 · 983 阅读 · 0 评论 -
PyTorch基本使用-张量的索引操作
在操作张量时,经常要去获取某些元素进行处理或者修改操作,在这里需要了解torch中的索引操作。原创 2024-12-08 20:29:37 · 763 阅读 · 0 评论 -
PyTorch基本使用-张量的基本运算及函数计算
张量的基本运算及函数原创 2024-12-08 18:23:07 · 664 阅读 · 0 评论 -
PyTorch基本使用-张量转换
使用torch.tensor()可以将ndarray数组转换为Tensor,不共享内存。函数可以将张量转换为ndarray数组,但是共享内存,可以使用。可以将ndarray数组转换为Tensor,共享内存。对于只有一个元素的张量,使用。函数将该值从张量中提取出来。原创 2024-12-08 17:55:00 · 774 阅读 · 0 评论 -
PyTorch基本使用-张量的创建
python的基本使用,创建张量原创 2024-12-08 16:06:05 · 1239 阅读 · 0 评论
分享