Pytorch近期学习笔记

本文介绍了PyTorch中的torch.randperm()、torch.from_numpy()、torch.Tensor()、torch.tensor()以及GPU运行检查。重点讨论了torch.optim优化器的使用,如Adam、SGD,并详细解析了如何利用torch.optim.lr_scheduler调整学习率,包括ReduceLROnPlateau和ExponentialLR。还阐述了optimizer.zero_grad(), loss.backward(), optimizer.step()和scheduler.step()在训练过程中的作用,以及如何将张量转换为numpy数组。" 83834011,7488515,Vue组件创建与编辑指南,"['Vue', '前端开发', '组件', '数据管理', '方法']

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

# 导入模块: 
import torch

torch.randperm(n)

将0~n-1(包括0和n-1)随机打乱后获得的数字序列,函数名是random permutation缩写

torch.randperm(10)
===> tensor([2, 3, 6, 7, 8, 9, 1, 5, 0, 4])

torch.from_numpy()

把数组转换成张量,且二者共享内存,对张量进行修改比如重新赋值,那么原始数组也会相应发生改变。

>>> a = numpy.array([1, 2, 3])
>>> t = torch.from_numpy(a)
>>> t
tensor([ 1, 2, 3])
>>> t[
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值