自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 「365天深度学习训练营」配置PyTorch环境

第一步,打开我们的显卡,查看其支持的CUDA版本号,首先找到它右键打开。上面的方法属于pip 在线安装,比较方便,但是安装速度会慢很多。再运行一遍cmd命令,确保其他相关包也能被安装好。,通过官方提供的方法进行安装。页面中找到上面下载的文件(即安装包文件)下载这个安装包,然后直接安装就可以了。第二步,进入谷歌,搜索相应的版本。文件所在的本地目录,使用。

2025-06-15 11:29:19 225

原创 「365天深度学习训练营」环境配置与编译器安装

在Python中,如果你想开发大型的爬虫程序或者进行GUI编程,Jupyter Lab可能不是好的选择。如果你要进行的是数据分析、机器学习、简单的深度学习等,我相信它是一个非常不错的选择。我们在Jupyter Lab上创建的文件会同步保存到我们的电脑本地,具体路径可以从左上角的红框中找到,先找到相应的文件夹再定位代码文件。另外一个就是写博客比较方便,上的文章都是使用它编写的,然后直接导出为.md文件,排版基本上没有做改动,省时省力。回车运行上面的命名,你将得到 Jupyter Lab 的后台与前台界面。

2025-06-15 11:16:36 621

原创 YOLOv5白皮书-第Y1周:调用官方权重进行检测

在目录C:\Users\Dell\yolov5-master\yolov5-master下。这个报错是因为网络问题,加上科学上网后就解决了。三.图像与视频目标检测。

2025-06-08 00:32:51 180

原创 第P4周:猴痘病识别

是一个存储了数据集类别和对应索引的字典。在PyTorch的ImageFolder数据加载器中,根据数据集文件夹的组织结构,每个文件夹代表一个类别,class_to_idx字典将每个类别名称映射为一个数字索引。它允许你以小批次的方式迭代你的数据集,这对于训练神经网络和其他机器学习任务非常有用。这个两个模块,在学习这个两知识点后,时间有余的同学请自由探索更佳的模型结构以提升模型是识别准确率,模型的搭建是深度学习程度的重点。如果设备上支持GPU就使用GPU,否则使用CPU。本周的代码相对于上周增加。

2024-12-18 10:42:13 770

原创 第P3周:Pytorch实现天气识别

更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用loss.backward()后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。step()函数的作用是执行一次优化步骤,通过梯度下降法来更新参数的值。函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。

2024-11-28 23:53:48 776

原创 365天深度学习训练营-第P2周:CIFAR10彩色图片识别

更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用loss.backward()后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。在model(test)之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。step()函数的作用是执行一次优化步骤,通过梯度下降法来更新参数的值。

2024-11-07 12:26:10 738

原创 365天深度学习训练营-第P1周:mnist手写数字识别

在这个项目中,我学习并实践了基于卷积神经网络(CNN)进行手写数字识别的完整流程。整个流程可以分为几个主要的阶段,包括数据准备、模型构建、训练和评估,最后是结果的可视化。版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。原文链接:https://blog.youkuaiyun.com/xushuaixin/article/details/143180959# 当不进行训练时,停止梯度更新,节省计算内存消耗。

2024-10-26 17:21:18 931

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除