
Pytorch
文章平均质量分 85
Pytorch
Ann's Blog
是个小白。啥也不会。
展开
-
pytorch的各种随机数 | randn和normal的关系 | rand和uniform_的关系
pytorch的rand*随机数torch.randtorch.rand(*sizes, out=None) → Tensor返回一个张量,包含了从区间[0,1)的均匀分布中抽取的一组随机数,形状由可变参数sizes 定义。print(torch.rand(3))print(torch.rand(3,2))输出为:>>tensor([0.3445, 0.9567, 0.7707])tensor([[0.7644, 0.5776], [0.4379, 0.546原创 2021-11-16 17:46:37 · 4466 阅读 · 0 评论 -
torchvision.transforms.ToTensor详解 | 使用transforms.ToTensor()出现用户警告 | 图像的H W C 代表什么
看看torchvision.transforms.ToTensor做了什么:把一个取值范围是[0,255]的PIL.Image或者shape为(H,W,C)的numpy.ndarray,转换成形状为[C,H,W],取值范围是[0,1.0]的torch.FloadTensor。简单来说就是把ndarray转换为tensor。np.ndarray为[h, w, c]格式:数组中最外层即hight,表示图像像素有几行;第二层元素width,表示图像像素几列,最后一层元素为每一个通道的数值。Tensor为原创 2021-11-09 11:23:36 · 33159 阅读 · 8 评论 -
pytorch中的各种乘法 | * @ torch.mul torch.mv torch.mm torch.dot torch.matmul
那么多相乘,讲实话我到现在也没仔细梳理过,所以现在搞一下子。文章目录按位置*数乘torch.mul矩阵向量相乘torch.mv矩阵乘法torch.mm点乘积torch.dot黑科技@首先声明一个向量和一个二维矩阵import torchvec = torch.arange(4)mtx = torch.arange(12).reshape(4,3)print(vec, mtx,sep='\n')输出结果:>> tensor([0, 1, 2, 3])tensor([[ 0,原创 2021-10-27 17:02:21 · 1104 阅读 · 0 评论 -
关于pytorch的SVD分解结果和书里不一样的问题
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。碎碎念问题是这样的,今天在看鱼书(《深度学习进阶:自然语言处理》)。看到SVD分解:使用奇异值分解(singular value decomposition,SVD)对矩阵进行降维。然后我手写了一下书里的代码,结果和书中的输出不一样。本来我想越过这个问题不管它,因为书里还用matplotlib画了散点图,我想我画一下看看和人家结果一不一样不就行了嘛。结果我画图也出bug了。在不能使用图的情况下我只好硬着头皮查资料看看我的SVD分解是不是出错了。原创 2021-10-14 21:28:22 · 2660 阅读 · 0 评论 -
PyTorch autograd过程解析以及遇到的一些小东西
PyTorch: Tensors and autograd(auto-gradient)因为pytorch中可以使用autograd实现神经网络反向传播过程的自动计算。 当我们使用autograd的时候,前向传播会定义一个计算图,图中的节点都是张量,图的边是函数,用于从输入张量产生输出张量。通过这个图的反向传播就可以轻松获得gradient。虽然听起来很复杂,但是用起来是很简单的,每个张量都代表计算图中的一个节点。如果x是一个张量,并且对其设置x.requires_grad=True,那么x.grad会原创 2021-10-06 21:46:03 · 462 阅读 · 1 评论