自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(60)
  • 收藏
  • 关注

原创 Python打卡训练营Day60

梳理之前的内容,建立自己的思维导图,课程最开始提供了思维导图,但是时间关系可能得未来补全(这个工作量也挺大),大家尽可能自己在一个白板上面来自己回忆回忆,在对着讲义和代码进行补充。day60 over!DAY 60 复习日。

2025-07-16 15:57:05 335

原创 Python打卡训练营Day59

机器学习模型:通过滑动窗口实现,往往需要借助arima等作为特征提取器来捕捉线性部分(趋势、季节性),再利用自己的优势捕捉非线性的残差。模型结果的检验可视化(昨天说的是摘要表怎么看,今天是对这个内容可视化)X了,可以自己借助AI尝试尝试,相信大家已经有这个能力了。深度学习模型:独特的设计天然为时序数据而生。多变量数据的理解:内生变量和外部变量。(单向因果)、VAR(考虑双向依赖)DAY 59 经典时序预测模型3。由于篇幅问题,无法实战。

2025-07-16 15:48:52 431

原创 Python打卡训练营Day58

根据昨天学习的规则(PACF定p,ACF定q)来选择p和q的值。- 如果p值 > 0.05,说明序列非平稳,需要进行差分。- 如果平稳了,则 d=1。否则,继续差分,直到平稳。模型评估与诊断:查看模型的摘要信息,检查残差是否为白噪声。- 对差分后的平稳序列绘制ACF和PACF图。- 进行一阶差分,然后再次进行ADF检验。5. 建立并训练ARIMA(p, d, q)模型。- 对原始序列进行ADF检验。ARIMA(p,d,q)模型实战。季节性差分---处理季节性。时序任务经典单变量数据集。

2025-07-15 21:35:48 513

原创 Python打卡训练营Day57

MA(q) 移动平均模型:当前值收到短期冲击的影响,且冲击影响随时间衰减。检索下经典的时序单变量数据集有哪些,选择一个尝试观察其性质。AR(p) 自回归模型:当前值受到过去p个值的影响。ARMA(p,q) 自回归滑动平均模型。:同时存在自回归和冲击影响。处理非平稳性:n阶差分。处理季节性:季节性差分。

2025-06-29 01:06:15 344

原创 Python打卡训练营Day56

临界值 (Critical Values): 1%: -3.4936 5%: -2.8892 10%: -2.5815。--- 检验结论 --- p-value (0.9342) 大于或等于 0.05,我们无法拒绝原假设(H₀)。--- 检验结论 --- 在滞后30阶时,p-value (0.0000) 小于 0.05。- 判断标准: 如果 p-value > 0.05,则接受原假设,认为序列是白噪声。结论:该序列是非平稳的 (Non-stationary)。原假设(H₀): 序列是白噪声。

2025-06-22 21:58:57 805

原创 Python打卡训练营Day55

本文介绍了序列预测任务的基本概念和方法,重点对比了传统机器学习模型在时序预测中的表现。实验使用合成数据(余弦波+线性趋势+噪声)构建时序数据集,通过滑动窗口方法构建输入序列。研究发现随机森林和LightGBM模型在训练集上表现良好,但在测试集上丢失了数据趋势特征,预测结果趋于平直,表明传统机器学习模型难以有效学习时序数据的长期依赖关系。实验结果显示,这类模型仅能捕捉局部特征而无法建模全局趋势,在时序预测任务中存在明显局限性。

2025-06-19 17:13:01 366

原创 Python打卡训练营Day54

本文探讨了Inception网络在CIFAR10数据集上的性能表现及改进方案。首先回顾了传统计算机视觉发展历程,重点分析了Inception模块的多尺度特征融合机制。随后通过实验对比了三种改进方案:基础Inception网络(测试准确率79.53%)、引入残差连接的ResInception(74.16%)和加入CBAM注意力机制的CBAMInception(75.57%)。实验结果与预期不符,残差和注意力机制未带来显著提升,这可能由于网络深度不足或模块参数配置不当导致。研究还包含GAN数据增强的初步尝试,为

2025-06-15 22:41:52 585

原创 Python打卡训练营Day53

对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法。对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学。leakyReLU介绍:避免relu的神经元失活现象。对抗生成网络的思想:关注损失从何而来。

2025-06-14 00:22:22 248

原创 Python训练营打卡DAY52

从80.98%——》82.34% 有了微弱的提升,多半是因为epoch的提高;其它调参优化效果并不明显,甚至可能在训练集上出现过拟合风险加大,最后收敛仍然未能较好,可继续优化调参。作业:对于day41的简单cnn,看看是否可以借助调参指南进一步提高精度。DAY 52 神经网络调参指南。各部分参数的调整心得。

2025-06-13 01:25:17 212

原创 Python训练营打卡DAY51

摘要:本文介绍了基于VGG16-CBAM模型改进肺结核良恶性分类任务的方法。首先构建了包含通道注意力和空间注意力机制的CBAM模块,并将其嵌入VGG16网络中。随后详细展示了分阶段微调策略:先训练分类头和CBAM模块,再逐步解冻高层卷积层,最终全局微调。实验采用多页TIFF格式的肺部CT数据集,通过数据增强和差异化学习率优化模型性能。结果表明,这种结合注意力机制和渐进式训练的策略能有效提升医学图像分类精度。文中还探讨了残差网络可能更适合小尺寸数据集的原因,并提供了完整的模型训练和评估流程。

2025-06-11 19:17:25 1297

原创 Python训练营打卡DAY50

ps:今日的代码训练时长较长,3080ti大概需要40min的训练时长。DAY 50 预训练模型+CBAM模块。尝试对vgg16+cbam进行微调策略。好好理解下resnet18的模型结构。针对预训练模型的训练策略。CBAM放置位置的思考。resnet结构解析。

2025-06-11 00:34:31 262

原创 Python训练营打卡DAY49

现在大家已经可以去读这类文章了,应该已经可以无压力看懂三四区的很多这类文章。最近临近毕业,事情有点多。如果有之前的基础的话,今天的难度相对较低。尝试对今天的模型检查参数数目,并用tensorboard查看训练过程。后面说完几种模块提取特征的组合方式后,会提供整理的开源模块的文件。

2025-06-10 00:21:53 479 2

原创 Python训练营打卡DAY48

本文回顾了PyTorch中的随机函数与广播机制,并通过代码示例演示了完整的卷积神经网络处理流程。首先使用torch.randn生成随机输入张量,随后通过卷积层、池化层处理数据,并展示计算尺寸变化。接着将多维张量展平为向量,经过两个线性层处理后,最终通过Softmax得到分类概率分布。示例展示了从32x32输入图像到10分类输出的完整变换过程,包括各层输出尺寸和参数配置。

2025-06-08 17:24:43 378

原创 Python训练营打卡DAY47

前面代码看前一天,这里是不同卷积层可视化注意力热图的代码。昨天代码中注意力热图的部分顺移至今天。作业:对比不同卷积层热图可视化的结果。DAY 47 注意力热图可视化。

2025-06-07 14:38:14 273

原创 Python训练营打卡DAY46

本文介绍了通道注意力机制(SE注意力)在CNN中的应用,主要包含以下内容:1)CNN不同层的特征图可视化方法;2)通道注意力模块的定义与实现,通过全局平均池化和全连接层学习通道权重;3)将SE模块插入CNN结构,在卷积层后对特征图进行通道加权;4)训练结果显示SE模块提升了模型性能;5)通过热力图可视化,展示模型对不同通道的关注程度。实验表明,通道注意力机制能有效提取重要特征,提高网络表达能力。

2025-06-06 16:22:45 894

原创 Python训练营打卡DAY45

本文介绍了TensorBoard在深度学习训练中的使用,重点演示了在CIFAR-10数据集上监控CNN模型训练的过程。内容包括:1) TensorBoard发展历史和基本原理;2) 常用功能如记录损失曲线、准确率、学习率、模型参数分布等;3) 实战案例采用CNN架构,包含完整的训练流程和TensorBoard集成代码;4) 展示了如何可视化错误预测样本和模型结构。文章还提供了作业建议:在ResNet18模型上实践TensorBoard监控。特别提醒注意版本兼容性问题,并强调深度学习代码的"八股文&

2025-06-05 21:41:07 602

原创 Python训练营打卡DAY44

2. 由于训练集用了 RandomCrop(随机裁剪)、RandomHorizontalFlip(随机水平翻转)、ColorJitter(颜色抖动)等数据增强操作,这会让训练时模型看到的图片有更多 “干扰” 或变形。而测试集是标准的、没增强的图片,模型预测相对轻松,就可能出现训练集准确率暂时低于测试集的情况,尤其在训练前期增强对模型影响更明显。尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同。1. 解冻后几个epoch即可达到之前cnn训练20轮的效果,这是预训练的优势。

2025-06-04 23:57:35 765 2

原创 Python打卡训练营Day43

kaggle找到一个图像数据集,用cnn网络进行训练并且用grad-cam做可视化。代码没问题但跑的很慢不知道啥原因。进阶:并拆分成多个文件。DAY 43 复习日。

2025-06-02 21:47:33 530 1

原创 Python打卡训练营Day42

DAY 42 Grad-CAM与Hook函数。hook函数的模块钩子和张量钩子。Grad-CAM的示例。理解下今天的代码即可。

2025-06-01 15:12:51 411

原创 Python打卡训练营Day41

【摘要】本文介绍了基于PyTorch的CNN模型在CIFAR-10数据集上的实现过程。主要内容包括:1)数据增强预处理(随机裁剪、翻转、颜色抖动等);2)三通道CNN架构设计,包含3个卷积块(均含BN层和ReLU激活)和2个全连接层;3)使用ReduceLROnPlateau学习率调度器动态调整优化过程;4)训练过程中详细记录了迭代和epoch维度的损失与准确率。实验结果表明,测试准确率显著提升至约80%,验证了CNN在图像分类任务上的有效性。文章还分析了测试准确率高于训练集的可能原因(如Dropout和B

2025-05-31 16:59:22 1079

原创 Python打卡训练营Day40

本文介绍了MNIST和CIFAR-10数据集训练测试的规范写法。主要内容包括: 数据预处理:对图像进行标准化处理,MNIST使用(0.1307,0.3081),CIFAR-10使用(0.5,0.5,0.5) 模型定义:展平处理输入图像,MNIST从28×28展平为784维,CIFAR-10从3×32×32展平为3072维 训练测试规范: 训练阶段开启dropout,测试阶段关闭 记录每个iteration的损失值 使用Adam优化器和交叉熵损失函数 代码框架:采用模块化设计,包含数据加载、模型定义、训练测试

2025-05-30 23:39:02 1020

原创 Python打卡训练营Day39

如果想要一次性使用全部数据进行训练,需要手动将batch_size设置为数据集的大小,但对于大型数据集,这样做通常会导致内存不足,因为一次性将所有数据加载到内存中可能会超出硬件的内存限制。大规模数据时,通常从16开始测试,然后逐渐增加,确保代码运行正常且不报错,直到出现 内存不足(OOM)报错 或训练效果下降,此时选择略小于该值的 batch_size。minist这个经典的手写数据集,作为图像数据,相较于结构化数据(表格数据)他的特点在于他每个样本的的形状并不是(特征数,),而是(宽,高,通道数).

2025-05-29 23:49:37 365

原创 Python打卡训练营Day38

Dataset类的__getitem__和__len__方法(本质是python的特殊方法)- 样本的预处理逻辑(如裁剪、翻转、归一化等,通常通过`transform`参数实现)。- 原始数据的读取方式(如图像解码为PIL对象、文本读取为字符串)。- 返回值格式(如`(image_tensor, label)`)。- 数据存储路径/来源(如文件路径、数据库查询)。- 是否打乱数据顺序(`shuffle`)。- 批量大小(`batch_size`)。了解下cifar数据集,尝试获取其中一张图片。

2025-05-27 19:30:08 314 1

原创 Python打卡训练营Day37

训练数据在波动表示其可能陷入局部最优解中不稳定,而测试数据趋于稳定表示已近乎拟合或模型性能已到极限。对信贷数据集训练后保存权重,加载权重后继续训练50轮,并采取早停策略。保存全部信息checkpoint,还包含训练状态。过拟合的判断:测试集和训练集同步打印指标。DAY 37 早停策略和模型权重的保存。

2025-05-26 16:10:10 940 1

原创 Python训练营打卡DAY36

训练进度: 100%|██████████| 20000/20000 [00:37<00:00, 540.26epoch/s, Loss=0.4421]对之前的信贷项目,利用神经网络训练下,尝试用到目前的知识点让代码更加规范和美观。仔细回顾一下神经网络到目前的内容,没跟上进度的补一下进度。:尝试进入nn.Module中,查看他的方法。探索性作业(随意完成)DAY 36 复习日。

2025-05-26 00:12:07 339

原创 Python训练营打卡DAY35

三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化。进度条功能:手动和自动写法,让打印结果更加美观。作业:调整模型定义时的超参数,对比下效果。推理的写法:评估模式。

2025-05-24 16:07:11 392

原创 Python训练营打卡DAY34

本文主要回顾了GPU训练和类的call方法的相关知识点。首先,介绍了如何查看CPU和GPU的性能,包括架构代际、核心数、线程数、显存等。接着,详细说明了GPU训练的方法,即将数据和模型移动到GPU设备上。此外,解释了在定义前向传播时可以直接使用self.fc1(x)的原因。文章还通过代码示例展示了如何检查CUDA的可用性、获取CUDA设备信息、加载数据集、归一化数据、将数据转换为PyTorch张量并移至GPU、定义和训练模型等操作。最后,通过可视化损失曲线展示了训练过程中的损失变化。

2025-05-23 20:42:58 447

原创 Python训练营打卡DAY33

1. 分类任务中,若标签是整数(如 0/1/2 类别),需转为long类型(对应 PyTorch 的torch.long),否则交叉熵损失函数会报错。2. 回归任务中,标签需转为float类型(如torch.float32)。今日的代码,要做到能够手敲。这已经是最简单最基础的版本了。查看显卡信息的命令行命令(cmd中使用)数据预处理(归一化、转换成张量)PyTorch和cuda的安装。DAY 33 简单的神经网络。继承nn.Module类。定义损失函数和优化器。

2025-05-22 15:06:45 611

原创 Python训练营打卡DAY32

参考pdpbox官方文档中的其他类,绘制相应的图,任选即可。官方文档的阅读和使用:要求安装的包和文档为同一个版本。官方文档的检索方式:github和官网。DAY 32 官方文档的阅读。绘图的理解:对底层库的调用。普通方法所需要的参数。

2025-05-21 15:00:45 745

原创 Python训练营打卡DAY31

尝试针对之前的心脏病项目,准备拆分的项目文件,思考下哪些部分可以未来复用。整个整理的架构可以延用,并且内部的代码也可考虑复用.DAY 31 文件的规范拆分和写法。完成项目拆分和文件夹管理!

2025-05-20 15:52:49 591

原创 Python训练营打卡DAY30

导入库/模块的核心逻辑:找到根目录(python解释器的目录和终端的目录不一致):自己新建几个不同路径文件尝试下如何导入。DAY 30 模块和库的导入。导入自定义库/模块的方式。导入官方库的三种手段。

2025-05-19 14:59:58 235

原创 Python训练营打卡DAY29

经历了一个月的学习,对于传统机器学习和python代码基础有了一定的了解和掌握,也在kaggle数据平台做了实战演练,虽很粗糙但也是自己所学。拿到数据先认识数据,对数据预处理(清洗异常值,填补空值,独热/标签编码,标准/归一化),处理数据集不平衡,特征筛选/降维,划分数据集,代入模型预训练,调优/寻找最优超参数,混淆矩阵打印预测结果对比,shap可解释性分析。复习类和函数的知识点,写下自己过去29天的学习心得,如对函数和类的理解,对python这门工具的理解等,未来再过几个专题部分即将开启深度学习部分。

2025-05-18 13:31:21 697

原创 Python训练营打卡DAY28

calculate_perimeter():计算周长(公式:2×(长+宽))。is_square() 方法,判断是否为正方形(长 == 宽)。calculate_circumference():计算圆的周长(公式:2πr)。shape_type="rectangle":创建长方形(参数:长、宽)。calculate_area():计算圆的面积(公式:πr²)。shape_type="circle":创建圆(参数:半径)。calculate_area():计算面积(公式:长×宽)。

2025-05-17 15:35:10 248

原创 Python训练营打卡DAY27

编写一个装饰器 logger,在函数执行前后打印日志信息(如函数名、参数、返回值)DAY 27 函数专题2:装饰器。装饰器的思想:进一步复用。注意内部函数的返回值。

2025-05-16 14:18:27 271

原创 Python训练营打卡DAY26

编写一个名为 calculate_circle_area 的函数,该函数接收圆的半径 radius 作为参数,并返回圆的面积。编写一个名为 calculate_average 的函数,该函数可以接收任意数量的数字作为参数(引入可变位置参数 (*args)),并返回它们的平均值。编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。函数的参数类型:位置参数、默认参数、不定参数。user_id 是一个必需的位置参数。

2025-05-15 15:27:59 376

原创 Python训练营打卡DAY25

在DAY25的异常处理知识点回顾中,我们深入探讨了异常处理机制及其在debug过程中的应用。核心概念包括try-except机制,以及其扩展形式try-except-else-finally机制。try块用于包含可能引发异常的代码,except块用于捕获并处理特定类型的异常,else块在try块成功执行后运行,而finally块无论是否发生异常都会执行,常用于资源清理。通过示例代码,我们展示了如何在实际编程中应用这些机制,如处理除零错误和类型错误。此外,finally块在机器学习和深度学习中的重要性被强调,

2025-05-14 21:31:49 468 1

原创 Python训练营打卡DAY24

对自己电脑的不同文件夹利用今天学到的知识操作下,理解下os路径。DAY 24 元组和OS模块。

2025-05-13 12:19:33 240

原创 Python训练营打卡DAY23

制作出适合所有机器学习的通用pipeline

2025-05-12 21:27:02 992

原创 Python训练营打卡DAY22

很粗糙的一次经历啊,由于kaggle数据集特点,数据降维很难继承到另一个无标签新数据集中,我只采用了数据筛选,但数据筛选效果很一般。其中Cabin特征中的值独热编码后两个数据集会产生维度以及名称上的不同,我无法处理这一情况只能把它删除,删除其实降了一些准确度的,但不删除又无法将训练好的模型代入训练无标签数据集。这一次未使用聚类构造新特征带入训练看看精确度是否提升是个小遗憾,但它分为两个数据集,那要怎样使用聚类构造新特征,是不是有些麻烦。仔细回顾一下之前21天的内容,补一下进度。DAY 22 复习日。

2025-05-11 15:32:59 1884 1

原创 Python训练营打卡DAY21

本文探讨了降维技术在机器学习中的应用,重点介绍了PCA、t-SNE和LDA等降维方法,并通过实验对比了它们在特定数据集上的效果。降维的主要应用场景包括处理高维数据、数据可视化、去噪、提升模型效率和改善模型表现。实验部分展示了如何使用随机森林分类器结合不同降维方法(PCA、t-SNE、LDA)进行模型训练和评估,并分析了降维对模型性能的影响。文章还讨论了降维与特征筛选的关系,建议在降维前先进行特征筛选,以简化任务、提高效率并增强结果的可解释性。

2025-05-10 16:24:49 728

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除