pytorch contiguous 相关问题

本文介绍了PyTorch中contiguous()函数的作用及使用方法。该函数确保张量在内存中连续存储,这对于某些操作至关重要。文章还列举了几种可能导致张量非连续存储的情况,并通过示例代码展示了如何检查并确保张量的连续性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

pytorch 里面的 contiguous()是以 C 为顺序保存在内存里面,如果不是,则返回一个以 C 为顺序保存的tensor.

tensor_name.is_contiguous()

可以用来判断是否以 C 为顺序保存的。
一些可能导致不是以 C 为顺序保存的可能为:

1. narrow

2. transpose

import torch
x = torch.ones(10, 10)
x.is_contiguous()  # True
x.transpose(0, 1).is_contiguous()  # False
x.transpose(0, 1).contiguous().is_contiguous()  # True
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值