- 博客(78)
- 问答 (1)
- 收藏
- 关注
原创 第Y1周打卡——调用官方权重进行检测
本文记录了YOLOv5深度学习训练实践过程,包括从GitHub下载源码、环境配置(解决依赖问题)、运行图片和视频识别任务。
2025-05-26 15:59:44
403
原创 R9打卡——RNN实现阿尔茨海默病诊断(优化特征选择版)
主要涉及阿尔茨海默病数据的分析与建模。首先,通过Pandas、NumPy等工具对数据进行预处理,包括缺失值检查、标签编码和数据可视化。接着,使用决策树和递归特征消除(RFE)方法进行特征选择,最终选取了20个关键特征。随后,构建了一个RNN模型,并通过DataLoader将数据分批处理。模型训练过程中,使用交叉熵损失函数和Adam优化器,训练了50个epoch,并记录了训练和测试的准确率与损失。最后,通过绘制准确率、损失曲线和混淆矩阵,对模型性能进行了评估和可视化。整个过程展示了从数据预处理到模型训练与评估
2025-05-19 15:07:15
769
原创 R8打卡——RNN实现阿尔兹海默症识别
本文记录了使用PyTorch框架进行阿尔茨海默病数据集分类任务的过程。首先,代码检查并设置GPU或CPU设备,加载并预处理数据,包括删除冗余列和标准化处理。接着,数据被划分为训练集和测试集,并使用DataLoader进行批次处理。随后,定义了一个基于RNN的神经网络模型,并编译训练模型,采用交叉熵损失和Adam优化器进行30个epoch的训练。训练过程中,记录并打印了每个epoch的训练和测试准确率及损失值。最后,通过Matplotlib绘制了准确率和损失的变化曲线,生成了混淆矩阵,并对测试数据进行了预测,
2025-05-13 10:54:27
323
原创 R7打卡——糖尿病预测模型优化探索
这段代码是一个完整的糖尿病预测模型训练流程,基于 PyTorch 框架使用 LSTM 神经网络模型进行二分类任务。环境与硬件准备(GPU检查)数据加载与预处理数据可视化分析(缺失值、相关性、箱线图等)数据集划分与标准化LSTM模型定义与训练模型评估与结果可视化train()
2025-05-05 16:27:34
584
原创 R6打卡——LSTM实现糖尿病预测
这段代码是一个完整的深度学习项目,使用 PyTorch 框架来训练一个基于 LSTM 的模型,用于糖尿病预测。1. 检查 GPU检查是否有可用的 GPU,优先使用 GPU 加速计算。如果没有 GPU,则使用 CPU。2. 查看数据return out定义了一个两层 LSTM 网络,输入维度为 13(特征数),隐藏层维度为 200。最后通过全连接层输出两个类别(糖尿病/非糖尿病)。5. 编译及训练模型......训练函数train:计算损失、反向传播、更新参数,并记录训练准确率和损失。
2025-04-28 09:46:01
1013
原创 R5打卡——天气预测
这段代码展示了一个完整的深度学习项目流程,用于预测澳大利亚某地是否会下雨。通过导入、清洗和预处理天气数据集,包括处理缺失值、类别编码和标准化等步骤,构建了一个全连接神经网络模型,并使用Adam优化器和早停机制进行训练,最后通过可视化训练及验证的准确率与损失曲线来评估模型性能。整个过程涵盖了从数据预处理到模型构建、训练和评估的关键环节。
2025-04-24 10:56:52
907
原创 R4打卡——tensorflow实现火灾预测
通过使用 TensorFlow 框架构建了一个基于 LSTM 的时间序列预测模型。任务是从给定的数据集中提取特征(Tem1, CO 1, Soot 1),并利用前8个时间段的数据预测第9个时间段的目标变量(Tem1)。整个流程包括数据预处理、模型构建、训练、评估和结果可视化等关键步骤。
2025-04-17 19:54:36
834
原创 R4打卡——pytorch实现LSTM预测火灾
通过实现一个基于LSTM(长短期记忆网络)的深度学习模型,对时间序列数据进行预测。具体任务是从给定的数据集中提取特征(, , ),并利用前8个时间段的数据预测第9个时间段的目标变量
2025-04-17 19:43:37
1136
原创 R3打卡——pytorch实现心脏病预测
1.环境配置与数据加载检查GPU可用性并设置训练设备使用Pandas加载心脏病数据集heart.csv数据集包含13个生理特征和1个目标变量(是否患病)样本总量:303条(示例数据未展示具体维度)2.数据预处理特征标准化:使用对特征列进行Z-score归一化数据集划分:训练集90%(约273条)测试集10%(约30条)数据张量化:将Numpy数组转换为PyTorch Tensor创建DataLoader:批量大小64未启用shuffle(可能影响训练效果)
2025-04-07 10:22:54
2343
原创 R3打卡——tensorflow实现RNN心脏病预测
1. RNN是什么?RNN是一种专门处理序列数据的神经网络。它的特点是能够利用“记忆”(隐藏状态)来捕捉序列中的时序信息。自然语言(句子中的单词顺序)时间序列数据(股票价格、传感器数据)语音信号(声音的先后顺序)传统神经网络(如CNN)假设输入是独立的,而RNN通过循环结构让当前时刻的输出依赖之前的输入,从而建模时间依赖关系。2. 核心思想:循环与记忆隐藏状态(Hidden State):RNN的“记忆单元”,保存了历史信息。循环机制。
2025-04-07 10:15:13
599
原创 J9打卡——InceptionV3实现天气识别
1. 代码结构概览1. 硬件检测自动选择GPU(若可用),否则使用CPU核心代码:torch.cuda.is_available()判断CUDA状态2. 数据准备数据集结构:4类天气图片(clouds/sunrise/rain/shine)路径处理:pathlib.Path自动解析路径预处理流程:统一缩放至 224x224归一化到 [0,1]数据集划分:80%训练集 + 20%测试集批量大小:32,启用 `shuffle` 打乱顺序2. 模型架构。
2025-03-31 10:39:45
787
原创 J8打卡——InceptionV1实现猴痘识别
本项目基于PyTorch框架,实现了一个InceptionV1模型的训练与测试,用于图像分类任务。项目的主要流程包括数据准备、模型构建、训练与测试、结果可视化以及单张图片的预测。以下是项目的详细总结。本项目成功实现了一个基于InceptionV1的图像分类模型,并完成了从数据准备到模型训练、测试、可视化和预测的完整流程。通过本项目,深入理解了深度学习模型的构建与训练过程,并掌握了PyTorch框架的基本使用方法。未来可以在此基础上进一步优化模型,提升其在实际应用中的性能。
2025-03-22 18:49:20
890
原创 J7打卡——ResNeXt-50思考
不报错的核心原因:1. 首个块显式对齐通道数:通过`conv_shortcut=True`的1x1卷积,确保输入输出通道数一致。2. 后续块复用对齐后的通道数:输入和主路径输出均为`filters * 2`,无需额外调整。3. 参数传递一致性:同一`stack`中所有块的`filters`参数相同,保证通道数统一。这种设计既符合残差网络的基本思想(恒等映射),又通过首个块的显式调整避免了维度不匹配问题,是ResNet/ResNeXt系列的核心优化技巧。可以在时,打印x.shape和。
2025-03-17 16:16:13
665
原创 J6打卡——pytorch实现ResNeXt-50实现猴痘检测
在这次深度学习训练营的学习中,我通过实现ResNeXt-50模型的构建、训练和评估,深入理解了深度学习模型的构建流程和优化方法。
2025-03-10 23:02:40
636
原创 J5打卡——pytorch实现DenseNet+SE-Net猴痘分类
这段代码展示了如何使用PyTorch实现一个完整的图像分类任务,涵盖了从数据加载、模型定义、训练、测试到结果可视化的全流程。代码结构清晰,模块化设计使得各个部分的功能明确,便于扩展和修改。通过使用DenseNet和SE注意力机制,模型能够有效地提取图像特征并进行分类。
2025-03-02 16:04:43
799
原创 J4打卡—— ResNet 和 DenseNet结合实现鸟类分类
代码结构检查 GPU:检查是否有可用的 GPU,并将模型和数据加载到 GPU 上。查看数据:加载数据集并统计图片数量。划分数据集:将数据集划分为训练集和测试集,并创建数据加载器。创建模型:定义了一个结合ResNet和DenseNet的混合模型。编译及训练模型:定义了训练和测试函数,并进行了模型训练。结果可视化:绘制训练和测试的准确率和损失曲线。预测图片:对测试集中的图片进行预测,并可视化预测结果。
2025-02-23 13:38:30
719
原创 J3打卡——DenseNet模型实现鸟类分类
这些代码展示了如何使用TensorFlow和Keras构建、训练并评估一个基于DenseNet架构的图像分类模型。
2025-02-16 16:30:10
998
原创 J2打卡——ResNet50V2实现鸟类识别
本次任务通过实现ResNetV2模型,完成了鸟类图片分类任务。从数据加载、模型构建、训练到结果可视化,完整地走了一遍深度学习项目的流程。通过调整模型结构和训练策略,进一步加深了对ResNet及其变种的理解。未来可以在此基础上探索更多的优化方法和应用场景。
2025-02-09 10:47:04
943
原创 P10打卡——pytorch实现车牌识别
这些代码展示了如何使用PyTorch构建并训练一个车牌识别模型。首先,通过检查GPU可用性来确定计算设备,确保模型训练可以在GPU上加速进行。接着,定义了一个数据集类。
2025-01-13 20:47:57
933
1
原创 P7——pytorch马铃薯病害识别
VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。
2024-12-25 22:48:29
839
1
原创 P6打卡—Pytorch实现人脸识别
VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。
2024-12-17 22:46:45
1134
原创 P5打卡-pytorch实现运动鞋分类
等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。
2024-12-11 21:50:08
1024
原创 P1打卡-使用Pytorch实现mnist手写数字识别
更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用。函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。,所有的梯度就会自动运算,tensor的梯度将会累加到它的.grad属性里面去。后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。PyTorch的反向传播(即。
2024-11-11 21:13:16
788
原创 T7——咖啡豆识别
VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸。权重值文件的大小为500多MB,不利于安装到嵌入式系统中。2)需要的存储容量大,不利于部署。1)训练时间过长,调参难度大。
2024-10-10 20:19:26
408
原创 T6打卡-好莱坞明星识别
为True时,会将y_pred转化为概率(用softmax),否则不进行转换,通常情况下用True结果更稳定;:类型为tf.keras.losses.Reduction,对loss进行处理,默认是AUTO;相对应的损失函数,如果是one-hot编码,则使用。相对应的损失函数,如果是整数编码,则使用。相对应的损失函数,针对于二分类问题。
2024-10-03 19:35:10
530
原创 T5打卡-运动鞋识别
是 TensorFlow 中的一个学习率衰减策略,用于在训练神经网络时动态地降低学习率。学习率衰减是一种常用的技巧,可以帮助优化算法更有效地收敛到全局最小值,从而提高模型的性能。初始学习率大小。学习率衰减的步数。在经过 decay_steps 步后,学习率将按照指数函数衰减。例如,如果 decay_steps 设置为 10,则每10步衰减一次。学习率的衰减率。它决定了学习率如何衰减。通常,取值在 0 到 1 之间。一个布尔值,控制学习率的衰减方式。
2024-09-30 19:57:14
779
原创 T4—猴痘识别
当加速器正在执行第 N 个训练步时,CPU 正在准备第 N+1 步的数据。这样做不仅可以最大限度地缩短训练的单步用时(而不是总用时),而且可以缩短提取和转换数据所需的时间。CPU 正在准备数据时,加速器处于空闲状态。相反,当加速器正在训练模型时,CPU 处于空闲状态。因此,训练所用的时间是 CPU 预处理时间和加速器训练时间的总和。shuffle是防止数据过拟合的重要手段,然而不当的buffer size,会导致shuffle无意义。需要说明的是,这里的数据项item,并不只是单单一条真实数据,如果有。
2024-09-21 21:44:04
482
原创 T3打卡-天气识别
directory,seed=None,directory: 数据所在目录。如果标签是inferred(默认),则它应该包含子目录,每个目录包含一个类的图像。否则,将忽略目录结构。labels: inferred(标签从目录结构生成),或者是整数标签的列表/元组,其大小与目录中找到的图像文件的数量相同。标签应根据图像文件路径的字母顺序排序(通过Python中的os.walk(directory)获得)。
2024-09-18 10:55:40
1073
原创 T2打卡——彩色图片分类
池化层对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,增加平移不变性,减少过拟合风险。但其实池化更多程度上是一种计算性能的一个妥协,强硬地压缩特征的同时也损失了一部分信息,所以现在的网络比较少用池化层或者使用优化后的如SoftPool。池化层包括最大池化层(MaxPooling)和平均池化层(AveragePooling),均值池化对背景保留更好,最大池化对纹理提取更好)。同卷积计算,池化层计算窗口内的平均值或者最大值。6.预测数据及模型评估。
2024-09-08 20:42:34
381
原创 T1打卡——mnist手写数字识别
池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。卷积层:通过卷积操作对输入图像进行降维和特征抽取。3.定义CNN网络模型。
2024-09-07 17:29:19
455
深度学习CNN回归优化
2024-08-25
LSTM时间序列 实验数据处理
2024-08-21
有关scala的除法
2023-05-16
Scala相关的rdd编程问题map用法
2023-05-15
关于Scala编程的标点问题
2023-05-14
关于石头剪刀布程序添加菜单并实现功能的问题
2021-07-17
TA创建的收藏夹 TA关注的收藏夹
TA关注的人