自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(78)
  • 问答 (1)
  • 收藏
  • 关注

原创 第Y1周打卡——调用官方权重进行检测

本文记录了YOLOv5深度学习训练实践过程,包括从GitHub下载源码、环境配置(解决依赖问题)、运行图片和视频识别任务。

2025-05-26 15:59:44 403

原创 R9打卡——RNN实现阿尔茨海默病诊断(优化特征选择版)

主要涉及阿尔茨海默病数据的分析与建模。首先,通过Pandas、NumPy等工具对数据进行预处理,包括缺失值检查、标签编码和数据可视化。接着,使用决策树和递归特征消除(RFE)方法进行特征选择,最终选取了20个关键特征。随后,构建了一个RNN模型,并通过DataLoader将数据分批处理。模型训练过程中,使用交叉熵损失函数和Adam优化器,训练了50个epoch,并记录了训练和测试的准确率与损失。最后,通过绘制准确率、损失曲线和混淆矩阵,对模型性能进行了评估和可视化。整个过程展示了从数据预处理到模型训练与评估

2025-05-19 15:07:15 769

原创 R8打卡——RNN实现阿尔兹海默症识别

本文记录了使用PyTorch框架进行阿尔茨海默病数据集分类任务的过程。首先,代码检查并设置GPU或CPU设备,加载并预处理数据,包括删除冗余列和标准化处理。接着,数据被划分为训练集和测试集,并使用DataLoader进行批次处理。随后,定义了一个基于RNN的神经网络模型,并编译训练模型,采用交叉熵损失和Adam优化器进行30个epoch的训练。训练过程中,记录并打印了每个epoch的训练和测试准确率及损失值。最后,通过Matplotlib绘制了准确率和损失的变化曲线,生成了混淆矩阵,并对测试数据进行了预测,

2025-05-13 10:54:27 323

原创 R7打卡——糖尿病预测模型优化探索

这段代码是一个完整的糖尿病预测模型训练流程,基于 PyTorch 框架使用 LSTM 神经网络模型进行二分类任务。环境与硬件准备(GPU检查)数据加载与预处理数据可视化分析(缺失值、相关性、箱线图等)数据集划分与标准化LSTM模型定义与训练模型评估与结果可视化train()

2025-05-05 16:27:34 584

原创 R6打卡——LSTM实现糖尿病预测

这段代码是一个完整的深度学习项目,使用 PyTorch 框架来训练一个基于 LSTM 的模型,用于糖尿病预测。1. 检查 GPU检查是否有可用的 GPU,优先使用 GPU 加速计算。如果没有 GPU,则使用 CPU。2. 查看数据return out定义了一个两层 LSTM 网络,输入维度为 13(特征数),隐藏层维度为 200。最后通过全连接层输出两个类别(糖尿病/非糖尿病)。5. 编译及训练模型......训练函数train:计算损失、反向传播、更新参数,并记录训练准确率和损失。

2025-04-28 09:46:01 1013

原创 R5打卡——天气预测

这段代码展示了一个完整的深度学习项目流程,用于预测澳大利亚某地是否会下雨。通过导入、清洗和预处理天气数据集,包括处理缺失值、类别编码和标准化等步骤,构建了一个全连接神经网络模型,并使用Adam优化器和早停机制进行训练,最后通过可视化训练及验证的准确率与损失曲线来评估模型性能。整个过程涵盖了从数据预处理到模型构建、训练和评估的关键环节。

2025-04-24 10:56:52 907

原创 R4打卡——tensorflow实现火灾预测

  通过使用 TensorFlow 框架构建了一个基于 LSTM 的时间序列预测模型。任务是从给定的数据集中提取特征(Tem1, CO 1, Soot 1),并利用前8个时间段的数据预测第9个时间段的目标变量(Tem1)。整个流程包括数据预处理、模型构建、训练、评估和结果可视化等关键步骤。

2025-04-17 19:54:36 834

原创 R4打卡——pytorch实现LSTM预测火灾

通过实现一个基于LSTM(长短期记忆网络)的深度学习模型,对时间序列数据进行预测。具体任务是从给定的数据集中提取特征(, , ),并利用前8个时间段的数据预测第9个时间段的目标变量

2025-04-17 19:43:37 1136

原创 R3打卡——pytorch实现心脏病预测

1.​环境配置与数据加载检查GPU可用性并设置训练设备使用Pandas加载心脏病数据集heart.csv数据集包含13个生理特征和1个目标变量(是否患病)样本总量:303条(示例数据未展示具体维度)​2.数据预处理特征标准化:使用对特征列进行Z-score归一化数据集划分:训练集90%(约273条)测试集10%(约30条)数据张量化:将Numpy数组转换为PyTorch Tensor创建DataLoader:批量大小64未启用shuffle(可能影响训练效果)

2025-04-07 10:22:54 2343

原创 R3打卡——tensorflow实现RNN心脏病预测

1. RNN是什么?RNN是一种专门处理序列数据的神经网络。它的特点是能够利用​“记忆”​​(隐藏状态)来捕捉序列中的时序信息。​自然语言​(句子中的单词顺序)​时间序列数据​(股票价格、传感器数据)​语音信号​(声音的先后顺序)传统神经网络(如CNN)假设输入是独立的,而RNN通过循环结构让当前时刻的输出依赖之前的输入,从而建模时间依赖关系。​2. 核心思想:循环与记忆​隐藏状态(Hidden State)​:RNN的“记忆单元”,保存了历史信息。​循环机制。

2025-04-07 10:15:13 599

原创 J9打卡——InceptionV3实现天气识别

1. 代码结构概览1. 硬件检测自动选择GPU(若可用),否则使用CPU核心代码:torch.cuda.is_available()判断CUDA状态2. 数据准备数据集结构:4类天气图片(clouds/sunrise/rain/shine)路径处理:pathlib.Path自动解析路径预处理流程:统一缩放至 224x224归一化到 [0,1]数据集划分:80%训练集 + 20%测试集批量大小:32,启用 `shuffle` 打乱顺序2. 模型架构。

2025-03-31 10:39:45 787

原创 J8打卡——InceptionV1实现猴痘识别

本项目基于PyTorch框架,实现了一个InceptionV1模型的训练与测试,用于图像分类任务。项目的主要流程包括数据准备、模型构建、训练与测试、结果可视化以及单张图片的预测。以下是项目的详细总结。本项目成功实现了一个基于InceptionV1的图像分类模型,并完成了从数据准备到模型训练、测试、可视化和预测的完整流程。通过本项目,深入理解了深度学习模型的构建与训练过程,并掌握了PyTorch框架的基本使用方法。未来可以在此基础上进一步优化模型,提升其在实际应用中的性能。

2025-03-22 18:49:20 890

原创 J7打卡——ResNeXt-50思考

不报错的核心原因:1. 首个块显式对齐通道数:通过`conv_shortcut=True`的1x1卷积,确保输入输出通道数一致。2. 后续块复用对齐后的通道数:输入和主路径输出均为`filters * 2`,无需额外调整。3. 参数传递一致性:同一`stack`中所有块的`filters`参数相同,保证通道数统一。这种设计既符合残差网络的基本思想(恒等映射),又通过首个块的显式调整避免了维度不匹配问题,是ResNet/ResNeXt系列的核心优化技巧。可以在时,打印x.shape和。

2025-03-17 16:16:13 665

原创 J6打卡——pytorch实现ResNeXt-50实现猴痘检测

在这次深度学习训练营的学习中,我通过实现ResNeXt-50模型的构建、训练和评估,深入理解了深度学习模型的构建流程和优化方法。

2025-03-10 23:02:40 636

原创 J5打卡——pytorch实现DenseNet+SE-Net猴痘分类

这段代码展示了如何使用PyTorch实现一个完整的图像分类任务,涵盖了从数据加载、模型定义、训练、测试到结果可视化的全流程。代码结构清晰,模块化设计使得各个部分的功能明确,便于扩展和修改。通过使用DenseNet和SE注意力机制,模型能够有效地提取图像特征并进行分类。

2025-03-02 16:04:43 799

原创 J4打卡—— ResNet 和 DenseNet结合实现鸟类分类

代码结构检查 GPU:检查是否有可用的 GPU,并将模型和数据加载到 GPU 上。查看数据:加载数据集并统计图片数量。划分数据集:将数据集划分为训练集和测试集,并创建数据加载器。创建模型:定义了一个结合ResNet和DenseNet的混合模型。编译及训练模型:定义了训练和测试函数,并进行了模型训练。结果可视化:绘制训练和测试的准确率和损失曲线。预测图片:对测试集中的图片进行预测,并可视化预测结果。

2025-02-23 13:38:30 719

原创 J3打卡——DenseNet模型实现鸟类分类

这些代码展示了如何使用TensorFlow和Keras构建、训练并评估一个基于DenseNet架构的图像分类模型。

2025-02-16 16:30:10 998

原创 J2打卡——ResNet50V2实现鸟类识别

本次任务通过实现ResNetV2模型,完成了鸟类图片分类任务。从数据加载、模型构建、训练到结果可视化,完整地走了一遍深度学习项目的流程。通过调整模型结构和训练策略,进一步加深了对ResNet及其变种的理解。未来可以在此基础上探索更多的优化方法和应用场景。

2025-02-09 10:47:04 943

原创 J1打卡——鸟类识别

这些代码展示了如何使用TensorFlow和Keras构建、训练并评估一个基于ResNet50架构的图像分类模型。

2025-01-22 20:14:59 1196

原创 P10打卡——pytorch实现车牌识别

这些代码展示了如何使用PyTorch构建并训练一个车牌识别模型。首先,通过检查GPU可用性来确定计算设备,确保模型训练可以在GPU上加速进行。接着,定义了一个数据集类。

2025-01-13 20:47:57 933 1

原创 P9打卡——YOLOv5-Backbone模块实现天气识别

【代码】P9打卡——YOLOv5-Backbone模块实现天气识别。

2025-01-08 18:24:14 358

原创 P8打卡——YOLOv5-C3模块实现天气识别

【代码】P8打卡——YOLOv5-C3模块实现天气识别。

2025-01-02 19:21:47 346

原创 P7——pytorch马铃薯病害识别

VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。

2024-12-25 22:48:29 839 1

原创 P6打卡—Pytorch实现人脸识别

VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。

2024-12-17 22:46:45 1134

原创 P5打卡-pytorch实现运动鞋分类

等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。

2024-12-11 21:50:08 1024

原创 P4打卡——pytorch实现猴痘病例识别

【代码】P4打卡——pytorch实现猴痘病例识别。

2024-12-02 10:39:34 726

原创 P3打卡-pytorch实现天气识别

【代码】P3打卡-pytorch实现天气识别。

2024-11-27 20:28:56 760

原创 P2打卡—pytorch实现CIFAR10彩色图片识别

【代码】P2打卡—pytorch实现CIFAR10彩色图片识别。

2024-11-19 19:54:12 766 1

原创 P1打卡-使用Pytorch实现mnist手写数字识别

更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用。函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。,所有的梯度就会自动运算,tensor的梯度将会累加到它的.grad属性里面去。后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。PyTorch的反向传播(即。

2024-11-11 21:13:16 788

原创 T11—优化器对比实验

通过画准确率、损失值图来进行对比,或通过 model.evaluate函数进行评估对比。

2024-11-05 20:09:49 374

原创 T10打卡—数据增强

​​​​​​​。

2024-11-01 14:35:56 294

原创 T9打卡——猫狗识别2

【代码】T9打卡——猫狗识别2。

2024-10-25 16:02:08 394

原创 T8打卡——猫狗识别

【代码】T8打卡——猫狗识别。

2024-10-16 15:47:19 999

原创 T7——咖啡豆识别

VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸。权重值文件的大小为500多MB,不利于安装到嵌入式系统中。2)需要的存储容量大,不利于部署。1)训练时间过长,调参难度大。

2024-10-10 20:19:26 408

原创 T6打卡-好莱坞明星识别

为True时,会将y_pred转化为概率(用softmax),否则不进行转换,通常情况下用True结果更稳定;:类型为tf.keras.losses.Reduction,对loss进行处理,默认是AUTO;相对应的损失函数,如果是one-hot编码,则使用。相对应的损失函数,如果是整数编码,则使用。相对应的损失函数,针对于二分类问题。

2024-10-03 19:35:10 530

原创 T5打卡-运动鞋识别

是 TensorFlow 中的一个学习率衰减策略,用于在训练神经网络时动态地降低学习率。学习率衰减是一种常用的技巧,可以帮助优化算法更有效地收敛到全局最小值,从而提高模型的性能。初始学习率大小。学习率衰减的步数。在经过 decay_steps 步后,学习率将按照指数函数衰减。例如,如果 decay_steps 设置为 10,则每10步衰减一次。学习率的衰减率。它决定了学习率如何衰减。通常,取值在 0 到 1 之间。一个布尔值,控制学习率的衰减方式。

2024-09-30 19:57:14 779

原创 T4—猴痘识别

当加速器正在执行第 N 个训练步时,CPU 正在准备第 N+1 步的数据。这样做不仅可以最大限度地缩短训练的单步用时(而不是总用时),而且可以缩短提取和转换数据所需的时间。CPU 正在准备数据时,加速器处于空闲状态。相反,当加速器正在训练模型时,CPU 处于空闲状态。因此,训练所用的时间是 CPU 预处理时间和加速器训练时间的总和。shuffle是防止数据过拟合的重要手段,然而不当的buffer size,会导致shuffle无意义。需要说明的是,这里的数据项item,并不只是单单一条真实数据,如果有。

2024-09-21 21:44:04 482

原创 T3打卡-天气识别

directory,seed=None,directory: 数据所在目录。如果标签是inferred(默认),则它应该包含子目录,每个目录包含一个类的图像。否则,将忽略目录结构。labels: inferred(标签从目录结构生成),或者是整数标签的列表/元组,其大小与目录中找到的图像文件的数量相同。标签应根据图像文件路径的字母顺序排序(通过Python中的os.walk(directory)获得)。

2024-09-18 10:55:40 1073

原创 T2打卡——彩色图片分类

池化层对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,增加平移不变性,减少过拟合风险。但其实池化更多程度上是一种计算性能的一个妥协,强硬地压缩特征的同时也损失了一部分信息,所以现在的网络比较少用池化层或者使用优化后的如SoftPool。池化层包括最大池化层(MaxPooling)和平均池化层(AveragePooling),均值池化对背景保留更好,最大池化对纹理提取更好)。同卷积计算,池化层计算窗口内的平均值或者最大值。6.预测数据及模型评估。

2024-09-08 20:42:34 381

原创 T1打卡——mnist手写数字识别

池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。卷积层:通过卷积操作对输入图像进行降维和特征抽取。3.定义CNN网络模型。

2024-09-07 17:29:19 455

音乐网站的相关代码与文档

音乐网站的相关代码与文档

2024-05-29

Java+sql酒店管理系统

Java+sql酒店管理系统

2024-05-28

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除