pytorch笔记——储存图片数据方式、resnet50全连接层是否增加bias偏置、调参思路

博客探讨了深度学习模型中BGR与sRGB、NCHW与sNHWC数据格式的差异,以及PyTorch中处理图像的方式。同时,提到ResNet50最后一层全连接层的bias对结果的影响。调参策略方面,强调了深层和浅层网络在特征学习上的不同角色,并概述了迁移学习的应用场景和调参思路。
部署运行你感兴趣的模型镜像

BGR v.s RGB, NCHW v.s NHWC

在Opencv中:imread,imwrite and imshow 都是用的 BGR存储数据,储存类型用HWC储存
在PIL(python)库中,使用的是BGR存储数据,同时用的是HWC储存
在pytorch中,用PIL作为默认储存图片,但是会将BGR转化成RGB,储存方式是CHW
pytroch中的 torch.utils.data.DataLoader读取得到的数据是NCHW存储,并且用的RGB方式。

resnet50中最后一层是否要加bias偏置

在输出pytorch库中的resnet50的模型的时候,发现最后一层的全连接层中有一个bias偏置。
老师讲解的时候,在全连接层和Softmax时候,公式如下,最后可以发现bias全部被约去了,所以在最后一层是否加偏置bias都不影响最终结果的计算。
在这里插入图片描述

针对卷积网络模型的调参思路

从深度学习发展至今,其实没有一个明确的调参思路,不然现如今也不会有如此多的研究生苦于给深度学习模型调参,调参是一个漫长且痛苦的过程,但针对调参,是有一个大概的思路及其方向的。
一般来说有两个原则

  • 越深一些的层,比较强调图像之间的共同特征,泛化能力强一些。
  • 越浅一些的层,则比较面对于具体一些的任务,针对不同的任务之间的不同的特征,一般是浅层。

在这里插入图片描述
迁移学习应用到其他的地方的时候,一般有以下几个思路训练模型
在这里插入图片描述

您可能感兴趣的与本文相关的镜像

PyTorch 2.7

PyTorch 2.7

PyTorch
Cuda

PyTorch 是一个开源的 Python 机器学习库,基于 Torch 库,底层由 C++ 实现,应用于人工智能领域,如计算机视觉和自然语言处理

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

暮尘依旧

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值