
pytorch
LightningJie
计算机专业研究生,分享我的嵌入式工程师学习路线。学习沟通YKINGJie
展开
-
pytorch学习(十六):终——解释一些bug
是 PyTorch 中用于创建张量的基本函数。:这里 H 是高度,W 是宽度,C 是颜色通道数(例如,RGB 图像有 3 个通道)。这种转换是因为 PyTorch 期望的输入张量维度顺序是通道数在前(C x H x W),而 PIL 图像和 NumPy ndarray 的默认维度顺序是高度在前(H x W x C)。:当你处理图像数据时,特别是在数据加载和预处理阶段,你需要将图像数据(无论是 PIL 图像还是 NumPy ndarray)转换为 PyTorch 张量,并准备它们以供模型训练或推理使用。原创 2024-08-13 01:05:25 · 548 阅读 · 0 评论 -
pytorch学习(十五):GPU训练
改为GPU训练,就需要改几行代码就可以;原创 2024-08-12 21:52:31 · 295 阅读 · 0 评论 -
pytorch学习(十四):完整的模型训练套路
以简单数据集CIFAR10为例,本次训练以GPU训练为例。讲解一下这三行代码的流程,首先optimizer.zero_grad() 将梯度清零,也就是每一层里的weight的grad里的参数清零,执行loss.backward()以后,grad里存储的就是反向传播的参数,optimizer.step()执行,将grad的值对参数进行更新。当你将代码块放在之下时,PyTorch会自动将该代码块中的所有操作设置为不计算梯度。原创 2024-08-12 13:24:24 · 388 阅读 · 0 评论 -
pytorch学习(十三):保存模型,加载模型
解决办法,将自己写的网络结构赋值过来,加载模型的方式仅仅加载了参数以及省略了实例化类这一步。还可以不复制 ,直接 from model_save import *以字典形式保存网络参数(官方推荐),只保存参数,不保存结构;上述代码保存模型后,加载模型时候会报错。原创 2024-08-11 14:27:33 · 210 阅读 · 0 评论 -
pytorch学习(十二):对现有的模型进行修改
,将特征图的尺寸调整为7x7。这是为了确保无论输入图像的大小如何,全连接层都能接收到固定大小的输入。可以看到,最后一层的全连接层的输出是1000,那么当我们有例如十分类的问题时候,就需要对网络进行修改。每个卷积层后都紧跟一个ReLU层,用于引入非线性。:用于在每个阶段的末尾减少特征图的尺寸,这有助于减少计算量和参数数量,同时保持重要的特征信息。还有一种方式是对原有的全连接层进行修改,将1000改为10。运行上述代码,在末尾加一层线性层,也就是全连接层。:网络的前半部分主要由卷积层()和ReLU激活函数(原创 2024-08-10 23:05:37 · 382 阅读 · 0 评论 -
pytorch学习(十一):优化器的使用
【代码】pytorch学习(十一):优化器的使用。原创 2024-08-07 00:28:45 · 219 阅读 · 0 评论 -
pytorch学习(十):损失函数与反向传播
损失函数是衡量模型预测值与真实值之间差异的一个函数。在训练神经网络时,我们的目标是找到一组参数(如权重和偏置),使得模型的预测尽可能接近真实值,即最小化损失函数的值。不同的学习任务会使用不同的损失函数。原创 2024-08-06 18:54:34 · 409 阅读 · 0 评论 -
pytotch(八):非线性激活
inplace: 是否更改传入的数据。例如 input=-1 ReLU(input,inplace=True) 此时,input的值变为0, input=-1 output=ReLU(input,inplace=False) 此时,input的值依然为-1,output的值为0.原创 2024-07-18 21:03:57 · 237 阅读 · 0 评论 -
pytorch学习(七):池化层的使用
在池化层中,假设kernel_size=3,也就是3*3的大小,但是原始图片为5*5,这样在进行第二次池化的时候,窗口里只有6个元素了,不够3*3了,这样会根据ceil_mode是floor和Ceiling模式来进行保留或者舍去。解释一下卷积层和池化层的区别:卷积的作用是提取图像特征,池化的作用是保留边缘特征,减少参数,池化分为最大池化(保留边缘特征)、平均池化(保留背景特征)。stride:窗口的步长,默认值是kernel_size的值。dilation:如下图,控制窗口内内元素之间的距离。原创 2024-07-17 11:59:48 · 273 阅读 · 0 评论 -
pytorch学习(六):卷积层的使用
s=1。原创 2024-07-16 20:04:02 · 443 阅读 · 0 评论 -
pytorch学习(五):搭建神经网络模型
forward函数在任何子类中都需要重写!原创 2024-05-19 13:36:42 · 182 阅读 · 0 评论 -
pytorch学习(四):Dataloader使用
遇见问题:writer.add_image()报错。报错原因:应该都是write.add_images()dataloader:加载器,把数据加载到神经网络当中。从dataset中取数据。write.add_images() 是添加多张图片。dataset:读取数据。原创 2024-05-18 14:20:30 · 254 阅读 · 0 评论 -
pytorch学习(三):torchvision中的数据集的使用
【代码】pytorch学习(3):torchvision中的数据集的使用。原创 2024-05-16 11:19:55 · 177 阅读 · 0 评论 -
pytorch学习(二):transforms使用
作用:将特定的图片通过transforms工具处理,得到我们想要的结果。原因:在PyTorch的模块中,ToTensor是一个用于图像预处理的类,而不是一个函数。因此,你不能直接调用来转换图像,因为这不是这个类设计的使用方式。ToTensor类是用来创建一个预处理对象的,该对象可以被调用以将PIL图像或NumPy ndarray转换为PyTorch张量(tensor)。ToTensor遇见小错误:tensorboard无法显示图片,原因:忘记 writer.close()在Python的类中,原创 2024-05-15 13:55:51 · 534 阅读 · 0 评论 -
pytorch学习(一):tensorboard使用
注意问题:pillow的版本要求在10.0以下,否则会如下报错:module 'PIL.Image' has no attribute 'ANTIALIAS'简单画一个y=x图像模拟模型训练时候的损失函数的图像。在终端输入下方指令,点击连接即可查看图像。安装后,就可以使用tensorboard;原创 2024-05-12 19:18:25 · 259 阅读 · 0 评论