torch基本操作

1.在terminal中th进入troch,th+文件名.lua运行文件。进入torch之后,dofile+“文件名.lua”运行文件

### PyTorch Tensor 操作使用指南 #### 创建 Tensors 创建 tensors 是使用 PyTorch 的基础。可以利用 Python 列表或者 NumPy 数组来初始化 tensors。 ```python import torch # 从列表创建 tensor data = [[1, 2], [3, 4]] tensor_from_list = torch.tensor(data) print(tensor_from_list) ``` 为了验证特定数值的 tensors 是否能成功创建,可以通过指定数据类型或设备(CPU 或 GPU)来进行测试[^2]。 #### 基本操作 执行诸如加法、乘法等算术运算非常直观: ```python x = torch.tensor([1., 2.]) y = torch.tensor([3., 4.]) addition_result = x + y multiplication_result = x * y print(addition_result) # 输出: tensor([4., 6.]) print(multiplication_result) # 输出: tensor([3., 8.]) ``` #### 形状变换 调整张量形状对于适应不同层之间的输入输出至关重要。`view()` 和 `reshape()` 方法允许重新排列元素而不改变其内容;而 `unsqueeze()`, `squeeze()` 可用于增加或移除维度大小为一的轴[^4]。 ```python original_tensor = torch.randn(2, 3) reshaped_tensor = original_tensor.view(-1) # 将所有元素展平成一维向量 single_dim_removed = reshaped_tensor.unsqueeze(0) # 添加新维度作为第零维 reduced_dimensionality = single_dim_removed.squeeze() print(f"Original shape: {original_tensor.shape}") print(f"After view(): {reshaped_tensor.shape}") print(f"After unsqueeze(): {single_dim_removed.shape}") print(f"After squeeze(): {reduced_dimensionality.shape}") ``` #### 多 GPU 训练支持 当涉及到大规模模型或多节点分布式计算环境时,TensorParallel 提供了一种简便的方法自动分割模型到多个 GPU 上进行训练和推理工作[^1]。 ```python from tensor_parallel import enable_model_parallelism model = MyModel() enable_model_parallelism(model=model, device_ids=[0, 1]) # 启用两个GPU上的并行处理 ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值