- 博客(70)
- 问答 (1)
- 收藏
- 关注
原创 R3打卡——pytorch实现心脏病预测
1.环境配置与数据加载检查GPU可用性并设置训练设备使用Pandas加载心脏病数据集heart.csv数据集包含13个生理特征和1个目标变量(是否患病)样本总量:303条(示例数据未展示具体维度)2.数据预处理特征标准化:使用对特征列进行Z-score归一化数据集划分:训练集90%(约273条)测试集10%(约30条)数据张量化:将Numpy数组转换为PyTorch Tensor创建DataLoader:批量大小64未启用shuffle(可能影响训练效果)
2025-04-07 10:22:54
730
原创 R3打卡——tensorflow实现RNN心脏病预测
1. RNN是什么?RNN是一种专门处理序列数据的神经网络。它的特点是能够利用“记忆”(隐藏状态)来捕捉序列中的时序信息。自然语言(句子中的单词顺序)时间序列数据(股票价格、传感器数据)语音信号(声音的先后顺序)传统神经网络(如CNN)假设输入是独立的,而RNN通过循环结构让当前时刻的输出依赖之前的输入,从而建模时间依赖关系。2. 核心思想:循环与记忆隐藏状态(Hidden State):RNN的“记忆单元”,保存了历史信息。循环机制。
2025-04-07 10:15:13
390
原创 J9打卡——InceptionV3实现天气识别
1. 代码结构概览1. 硬件检测自动选择GPU(若可用),否则使用CPU核心代码:torch.cuda.is_available()判断CUDA状态2. 数据准备数据集结构:4类天气图片(clouds/sunrise/rain/shine)路径处理:pathlib.Path自动解析路径预处理流程:统一缩放至 224x224归一化到 [0,1]数据集划分:80%训练集 + 20%测试集批量大小:32,启用 `shuffle` 打乱顺序2. 模型架构。
2025-03-31 10:39:45
758
原创 J8打卡——InceptionV1实现猴痘识别
本项目基于PyTorch框架,实现了一个InceptionV1模型的训练与测试,用于图像分类任务。项目的主要流程包括数据准备、模型构建、训练与测试、结果可视化以及单张图片的预测。以下是项目的详细总结。本项目成功实现了一个基于InceptionV1的图像分类模型,并完成了从数据准备到模型训练、测试、可视化和预测的完整流程。通过本项目,深入理解了深度学习模型的构建与训练过程,并掌握了PyTorch框架的基本使用方法。未来可以在此基础上进一步优化模型,提升其在实际应用中的性能。
2025-03-22 18:49:20
860
原创 J7打卡——ResNeXt-50思考
不报错的核心原因:1. 首个块显式对齐通道数:通过`conv_shortcut=True`的1x1卷积,确保输入输出通道数一致。2. 后续块复用对齐后的通道数:输入和主路径输出均为`filters * 2`,无需额外调整。3. 参数传递一致性:同一`stack`中所有块的`filters`参数相同,保证通道数统一。这种设计既符合残差网络的基本思想(恒等映射),又通过首个块的显式调整避免了维度不匹配问题,是ResNet/ResNeXt系列的核心优化技巧。可以在时,打印x.shape和。
2025-03-17 16:16:13
646
原创 J6打卡——pytorch实现ResNeXt-50实现猴痘检测
在这次深度学习训练营的学习中,我通过实现ResNeXt-50模型的构建、训练和评估,深入理解了深度学习模型的构建流程和优化方法。
2025-03-10 23:02:40
614
原创 J5打卡——pytorch实现DenseNet+SE-Net猴痘分类
这段代码展示了如何使用PyTorch实现一个完整的图像分类任务,涵盖了从数据加载、模型定义、训练、测试到结果可视化的全流程。代码结构清晰,模块化设计使得各个部分的功能明确,便于扩展和修改。通过使用DenseNet和SE注意力机制,模型能够有效地提取图像特征并进行分类。
2025-03-02 16:04:43
771
原创 J4打卡—— ResNet 和 DenseNet结合实现鸟类分类
代码结构检查 GPU:检查是否有可用的 GPU,并将模型和数据加载到 GPU 上。查看数据:加载数据集并统计图片数量。划分数据集:将数据集划分为训练集和测试集,并创建数据加载器。创建模型:定义了一个结合ResNet和DenseNet的混合模型。编译及训练模型:定义了训练和测试函数,并进行了模型训练。结果可视化:绘制训练和测试的准确率和损失曲线。预测图片:对测试集中的图片进行预测,并可视化预测结果。
2025-02-23 13:38:30
686
原创 J3打卡——DenseNet模型实现鸟类分类
这些代码展示了如何使用TensorFlow和Keras构建、训练并评估一个基于DenseNet架构的图像分类模型。
2025-02-16 16:30:10
977
原创 J2打卡——ResNet50V2实现鸟类识别
本次任务通过实现ResNetV2模型,完成了鸟类图片分类任务。从数据加载、模型构建、训练到结果可视化,完整地走了一遍深度学习项目的流程。通过调整模型结构和训练策略,进一步加深了对ResNet及其变种的理解。未来可以在此基础上探索更多的优化方法和应用场景。
2025-02-09 10:47:04
916
原创 P10打卡——pytorch实现车牌识别
这些代码展示了如何使用PyTorch构建并训练一个车牌识别模型。首先,通过检查GPU可用性来确定计算设备,确保模型训练可以在GPU上加速进行。接着,定义了一个数据集类。
2025-01-13 20:47:57
911
1
原创 P7——pytorch马铃薯病害识别
VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。
2024-12-25 22:48:29
812
1
原创 P6打卡—Pytorch实现人脸识别
VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。
2024-12-17 22:46:45
1114
原创 P5打卡-pytorch实现运动鞋分类
等间隔动态调整方法,每经过step_size个epoch,做一次学习率decay,以gamma值为缩小倍数。
2024-12-11 21:50:08
1005
原创 P1打卡-使用Pytorch实现mnist手写数字识别
更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用。函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。,所有的梯度就会自动运算,tensor的梯度将会累加到它的.grad属性里面去。后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。PyTorch的反向传播(即。
2024-11-11 21:13:16
762
原创 T7——咖啡豆识别
VGG的结构非常简洁,整个网络都使用了同样大小的卷积核尺寸。权重值文件的大小为500多MB,不利于安装到嵌入式系统中。2)需要的存储容量大,不利于部署。1)训练时间过长,调参难度大。
2024-10-10 20:19:26
401
原创 T6打卡-好莱坞明星识别
为True时,会将y_pred转化为概率(用softmax),否则不进行转换,通常情况下用True结果更稳定;:类型为tf.keras.losses.Reduction,对loss进行处理,默认是AUTO;相对应的损失函数,如果是one-hot编码,则使用。相对应的损失函数,如果是整数编码,则使用。相对应的损失函数,针对于二分类问题。
2024-10-03 19:35:10
521
原创 T5打卡-运动鞋识别
是 TensorFlow 中的一个学习率衰减策略,用于在训练神经网络时动态地降低学习率。学习率衰减是一种常用的技巧,可以帮助优化算法更有效地收敛到全局最小值,从而提高模型的性能。初始学习率大小。学习率衰减的步数。在经过 decay_steps 步后,学习率将按照指数函数衰减。例如,如果 decay_steps 设置为 10,则每10步衰减一次。学习率的衰减率。它决定了学习率如何衰减。通常,取值在 0 到 1 之间。一个布尔值,控制学习率的衰减方式。
2024-09-30 19:57:14
763
原创 T4—猴痘识别
当加速器正在执行第 N 个训练步时,CPU 正在准备第 N+1 步的数据。这样做不仅可以最大限度地缩短训练的单步用时(而不是总用时),而且可以缩短提取和转换数据所需的时间。CPU 正在准备数据时,加速器处于空闲状态。相反,当加速器正在训练模型时,CPU 处于空闲状态。因此,训练所用的时间是 CPU 预处理时间和加速器训练时间的总和。shuffle是防止数据过拟合的重要手段,然而不当的buffer size,会导致shuffle无意义。需要说明的是,这里的数据项item,并不只是单单一条真实数据,如果有。
2024-09-21 21:44:04
468
原创 T3打卡-天气识别
directory,seed=None,directory: 数据所在目录。如果标签是inferred(默认),则它应该包含子目录,每个目录包含一个类的图像。否则,将忽略目录结构。labels: inferred(标签从目录结构生成),或者是整数标签的列表/元组,其大小与目录中找到的图像文件的数量相同。标签应根据图像文件路径的字母顺序排序(通过Python中的os.walk(directory)获得)。
2024-09-18 10:55:40
1061
原创 T2打卡——彩色图片分类
池化层对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,增加平移不变性,减少过拟合风险。但其实池化更多程度上是一种计算性能的一个妥协,强硬地压缩特征的同时也损失了一部分信息,所以现在的网络比较少用池化层或者使用优化后的如SoftPool。池化层包括最大池化层(MaxPooling)和平均池化层(AveragePooling),均值池化对背景保留更好,最大池化对纹理提取更好)。同卷积计算,池化层计算窗口内的平均值或者最大值。6.预测数据及模型评估。
2024-09-08 20:42:34
369
原创 T1打卡——mnist手写数字识别
池化层:是一种非线性形式的下采样。主要用于特征降维,压缩数据和参数的数量,减小过拟合,同时提高模型的鲁棒性。全连接层:在经过几个卷积和池化层之后,神经网络中的高级推理通过全连接层来完成。卷积层:通过卷积操作对输入图像进行降维和特征抽取。3.定义CNN网络模型。
2024-09-07 17:29:19
444
原创 SeaBorn知识点
核密度估计是在概率论中用来估计位置的密度函数,属于非参数检验方法之一,可以以比较直观的看出数据样本本身的分布特征。1.绘制单变量分布:displot!4.类别内的数据分布。
2024-08-05 12:16:50
228
原创 吴恩达机器学习笔记
监督学习就是最常见的分类(注意和聚类区分)问题,通过已有的训练样本(即已知数据及其对应的输出)去训练得到一个最优模型,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的。也就是说,在监督学习中训练数据既有特征(feature)又有标签(label),通过训练,让机器可以自己找到特征和标签之间的联系,在面对只有特征没有标签的数据时,可以判断出标签。它通过变换现有数据集中的样本,创造出额外的训练实例,这些实例虽然与原始数据有所差异,但仍然保持原有的分类标签或属性。
2024-08-05 12:14:12
1499
原创 PyEcharts知识点详解(每张图都有!)(巨详细!!)
类目轴,适用于离散数据,例如星期一,星期二。:数据项,一般用于散点图,柱形图,饼图,坐标轴,提示线,主要用于条形图,折线图等。时间轴,适用于连续的时序数据。设置饼图的内圈半径和外圈半径。设置饼图的内圈半径和外圈半径。主标题和副标题之间的间隙。:数值轴,用于连续数据,拖动时是否实时更新图表。设置饼图在容器中的位置。设置饼图在容器中的位置。,可以滚动翻页的图例。图标和文字的对齐方式。排斥力,越大分的越开。排斥力,越大分的越开。
2024-07-26 10:52:40
1212
原创 Matplotlib知识点详解(巨详细!!!)
plt.grid(ls=' ',lw=' ' ,c='red',axis='y') ls:网格线样式 lw:网格线宽度。axis(' ') off:不显示坐标轴,equal:让x轴y轴刻度距离相同,plt.imshow(变量名,origin='lower')plt.imshow(变量名[400:600,600:])plt.imshow(变量名[:,::-1])加图表题:set_title('图标题')plt.imread(' 图片路径名称')
2024-07-26 10:49:29
564
原创 Pandas&DataFrame知识点(巨详细)
保存到excel文件:df.to_excel(('保存名称',sheet_name='表名称',header='True',index='False')传递一个字典来创建。pd.read_table('名称',sep=',',index_col=0) 分割符默认的为\t,使用必须写sep=‘,’保存到csv:df.to_csv('保存名称',sep=',',header='True',index='True')或者df.loc('b')[0],df.iloc[1][0],df.iloc[1,0]
2024-07-25 17:44:49
778
原创 数据分析——numpy教程
可以用来存储和处理大型矩阵,比python自身的嵌套列表结构要高效,支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库,包括数学、逻辑、形状操作、排序、选择、输入输出、离散傅里叶变换、基本线性函数,基本统计运算和随机模拟等。scale:标准差,对应分布的宽度,scale越大,正态分布的曲线越矮胖,scale越小,曲线越高瘦。order:{'C','F'},默认值为C,C(行主序),F(列主序)order:{'C','F'},默认值为C,C(行主序),F(列主序)
2024-07-15 16:31:28
950
原创 深浅拷贝以及正则表达式(python)
deepcopy是深拷贝,只要发现对象有可变类型就会对该对象到最后一个可变类型的每一层对象进行拷贝,对每一层拷贝的对象都会开辟新的内存空间进行存储。copy函数是浅拷贝,支队可变类型的第一层对象进行拷贝,对拷贝的对象开辟显得内存空间进行存储,不会拷贝对象内部的子对象。对应不可变类型进行拷贝实际上是对引用的一个拷贝,两个变量指定的是一个内存地址。浅拷贝不会对不可变类型进行拷贝,也就是说不会开辟内存空间。需求:第一个字符除了aeiou的字符都匹配。[^指定字符]:表示出了指定字符都批评。
2024-06-17 22:06:48
302
深度学习CNN回归优化
2024-08-25
LSTM时间序列 实验数据处理
2024-08-21
有关scala的除法
2023-05-16
Scala相关的rdd编程问题map用法
2023-05-15
关于Scala编程的标点问题
2023-05-14
关于石头剪刀布程序添加菜单并实现功能的问题
2021-07-17
TA创建的收藏夹 TA关注的收藏夹
TA关注的人