
pytorch
文章平均质量分 77
Zhansijing
这个作者很懒,什么都没留下…
展开
-
Resnet网络理解及其pytorch实现
1,为什么提出ResNet网络?在不断加深的神经网络的深度时,会出现退化的问题,即准确率会先上升然后达到饱和,再持续增加深度后其准确率下降了。这不是由于过拟合导致的,因为这不仅导致训练集上误差增大,测试集上误差也增大。原因是随着网络越来越深,训练变得越来越难,网络的优化变得越来越难。理论上,层度越深的网络其学习到语义信息越丰富,提取的特征效果会越好;但是,实际上,由于深度增加导致网络难以训练,产生网络退出问题,其效果还没有浅层网络的好。而残差网络的出现解决了这个问题。2,残差网络的创新点文章的基原创 2021-03-18 10:52:15 · 657 阅读 · 0 评论 -
pytorch反向传播原理
假设我们有一组数据如下表所示,,表示学习时长和分数的关系,我们要推断出当x=4时,y为多少x(hours) y(points) 1 2 2 4 3 6 4 ? 通常情况下我们假设上述模型是一个线性模即y=w*x+b,这里为了简单省略为y=w*x。下面模型模拟pytorch的计算过程:下图是我个人关于整个求导的流程的理解,x=1,y^=2,w的初始值为1。然后根据w=w-learningrate*(learningrate=0.01)获原创 2021-03-11 11:23:43 · 2236 阅读 · 0 评论 -
Pytorch学习(二):实现Cifar分类
Pytorch实现Cifar分类说明1: torchvision是pytorch框架一个重要的包,该包由三个主要子包组成,分别为torchvision.datasets,torchvision.models,torchvision.transform. torchvison.transforms这个包中包含了resize,crop等常见的data augmentation操作,基本上pytorch的data augmentation操作都可以通过该子包实现。使用方法:train_augment原创 2020-12-02 22:10:57 · 517 阅读 · 0 评论 -
pytorch学习(一):搭建神经网络
pytorch搭建神经网络torch.nn 只支持小批量输入。整个 torch.nn 包都只支持小批量样本,而不支持单个样本。 例如,nn.Conv2d 接受一个4维的张量, 每一维分别是sSamples * nChannels * Height * Width(样本数*通道数*高*宽)。 如果你有单个样本,只需使用 input.unsqueeze(0) 来添加其它的维数torch.Tensor:一个用于自动调用backward()实现自动梯度计算的多维数组,并且保存关于这个相对梯度。nn.Modu原创 2020-12-01 21:59:03 · 275 阅读 · 0 评论 -
windows10安装MinWG
MinGW,Minimalist GNU for Windows,windows最简化的GNU,就是一个C的编译工具集,转为windows操作系统下的C/C++开发者服务。1.首先去MinGW主页下载最新版本的MinGW:http://www.mingw.org/。直接点击网站右上方的Download Installer.2,安装mingw-get-setup.exe,点击exe安装,安装完后会在桌面出现图标3,.MinGW安装管理器的安装程序,右击Mark for Installati原创 2020-11-07 20:59:13 · 595 阅读 · 0 评论 -
Pytorch调试遇到的问题
由于使用的pytorch版本是1.5,但是代码的原来版本是1.0,所以在调试过程中遇到版本不同问题。问题1:UserWarning: volatile was removed and now has no effect. Use `with torch.no_grad():` instead。解决办法:例如: #points = Variable(points, volatile=True)改为: with torch.no_grad():原创 2020-10-17 19:41:02 · 2375 阅读 · 1 评论