
Pytorch
文章平均质量分 54
胡小白的数据科学之路
https://www.zhihu.com/people/hu-jia-hao-10-2
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Pytorch 模拟卷积网络(CNN)的梯度下降过程
pass原创 2021-11-17 16:44:57 · 2155 阅读 · 2 评论 -
Pytorch中对tensor进行reshape的两种常用方法 .view() & .reshape()
介绍在使用Pytorch时,我们经常需要对一些tensor进行形状的改变以满足神经网络对输入数据的维度要求,我们最常用的两种方式就是.view() 以及 .reshape(), 除此之外,还有一种方法是.resize_(), 这种方法不仅可以改变数据的形状,同时还可以做到数据的部分截取。在这篇博文中,我会将前两种方式,即.view()和.reshape(),作为主要的介绍对象。1.view()我们通过调用.view()方法返回的结果是原始张量数据的另一个视图,即返回的张量与原始张量共享基础数据(但是原创 2021-11-17 11:58:26 · 13732 阅读 · 0 评论 -
在Pytorch中使用GPU加速模型训练
CPU->GPU当我们需要训练一个复杂模型的时候,使用CPU来进行训练往往会花费非常多的时间。因此,一般情况下,我们都会选择在GPU (Graphics Process Unit)环境下进行训练,因为其支持高度的并行计算,可以有效地加快数据处理的速度,减少模型训练时间。Pytorch支持CUDA并行计算框架,该框架是由NVIDIA公司推出的基于自家GPU的并行计算框架。CUDA 环境检验如果我们希望在Pytorch实现GPU加速,首先我们需要确认GPU环境是否可用,我们可以使用如下命令来che原创 2021-11-16 12:22:16 · 3492 阅读 · 0 评论 -
Pytorch 中关于in-place operation的小总结
问题引入有些时候,我们需要对Tensor中的某些部分进行一些重新赋值的操作(即in-place operation),但是如果该步骤涉及到一些需要计算梯度的叶子变量 (即requires_grad=True)时,Pytorch会报如下错误:a leaf Variable that requires grad has been used in an in-place operation, 原因是这种in-place operation是一种原位操作,是无法计算梯度的。比如下面这个简单的例子。import原创 2021-11-15 21:30:38 · 1631 阅读 · 0 评论 -
Pytorch 中使用nn.CrossEntropyLoss的注意点(不需要额外的softmax)
起因最近在使用pytorch训练模型时,出现了loss下降非常缓慢的问题,想了很久都没有发现问题出在哪里。原创 2021-06-27 01:05:13 · 6564 阅读 · 6 评论