自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(56)
  • 收藏
  • 关注

原创 DAY 56 时序数据的检验

自行构造数据集,来检查是否符合这个要求。

2025-06-22 21:28:31 180

原创 Python训练营打卡 Day55

手动构造类似的数据集(如cosx数据),观察不同的机器学习模型的差异。

2025-06-19 21:10:11 98

原创 day55

1. 对inception网络在cifar10上观察精度。2. 消融实验:引入残差机制和cbam模块分别进行消融。

2025-06-17 23:21:47 124

原创 DAY 54 Inception网络及其思考

作业:一次稍微有点学术感觉的作业:

2025-06-15 21:53:36 644

原创 DAY 53 对抗生成网络

对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法。对于gan的损失函数的理解,建议去找找视频看看,如果只是用,没必要学。leakyReLU介绍:避免relu的神经元失活现象。对抗生成网络的思想:关注损失从何而来。

2025-06-13 21:14:11 304

原创 DAY 52 神经网络调参指南

作业:对于day'41的简单cnn,看看是否可以借助调参指南进一步提高精度。各部分参数的调整心得。

2025-06-12 22:15:28 450

原创 DAY 51 复习日

day43的时候我们安排大家对自己找的数据集用简单cnn训练,现在可以尝试下借助这几天的知识来实现精度的进一步提高。

2025-06-11 23:06:48 199

原创 DAY 50 预训练模型+CBAM模块

【代码】DAY 50 预训练模型+CBAM模块。

2025-06-10 22:53:50 300

原创 DAY 49 CBAM注意力

尝试对今天的模型检查参数数目,并用tensorboard查看训练过程。

2025-06-09 22:31:11 329

原创 DAY 48 随机函数与广播机制

卷积和池化的计算公式(可以不掌握,会自动计算的)ps:numpy运算也有类似的广播机制,基本一致。pytorch的广播机制:加法和乘法的广播机制。随机张量的生成:torch.randn函数。自己多借助ai举几个例子帮助自己理解即可。

2025-06-08 20:53:57 233

原创 DAY 47 注意力热图可视化

昨天代码中注意力热图的部分顺移至今天。作业:对比不同卷积层热图可视化的结果。

2025-06-08 20:41:18 153

原创 Day46

引入通道注意力机制后,特征图可视化。

2025-06-06 22:25:42 572

原创 DAY 45 Tensorboard使用介绍

对resnet18在cifar10上采用微调策略下,用tensorboard监控训练过程。

2025-06-06 22:17:10 104

原创 DAY 44 预训练模型

尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同。尝试通过ctrl进入resnet的内部,观察残差究竟是什么。收敛后的效果超过非预训练模型的85%预训练代码实战:resnet18。图像预训练模型的发展史。常见的分类预训练模型。

2025-06-05 18:37:35 441

原创 DAY 43 复习日

kaggle找到一个图像数据集,用cnn网络进行训练并且用grad-cam做可视化。进阶:并拆分成多个文件。

2025-06-02 21:14:31 282

原创 DAY 42 Grad-CAM与Hook函数

hook函数的模块钩子和张量钩子。Grad-CAM的示例。理解下今天的代码即可。

2025-06-01 22:46:09 239

原创 DAY 41 简单CNN

Flatten -> Dense (with Dropout,可选) -> Dense (Output)1. 输入 → 卷积层 → Batch归一化层(可选) → 池化层 → 激活函数 → 下一层。尝试手动修改下不同的调度器和CNN的结构,观察训练的差异。batch归一化:调整一个批次的分布,常用与图像数据。特征图:只有卷积操作输出的才叫特征图。调度器:直接修改基础学习率。卷积神经网络定义的写法。

2025-06-01 22:39:17 173

原创 DAY 40 训练和测试的规范写法

仔细学习下测试和训练代码的逻辑,这是基础,这个代码框架后续会一直沿用,后续的重点慢慢就是转向模型定义阶段了。dropout操作:训练阶段随机丢弃神经元,测试阶段eval模式关闭dropout。展平操作:除第一个维度batchsize外全部展平。彩色和灰度图片测试和训练的规范写法:封装在函数中。

2025-05-30 22:07:26 723

原创 day39 图像数据与显存

batchisize和训练的关系。图像数据的格式:灰度和彩色数据。今日代码较少,理解内容即可。

2025-05-29 21:53:15 182

原创 DAY 38 Dataset和Dataloader类

Dataset类的__getitem__和__len__方法(本质是python的特殊方法)了解下cifar数据集,尝试获取其中一张图片。minist手写数据集的了解。Dataloader类。

2025-05-27 19:56:40 269

原创 DAY 37 早停策略和模型权重的保存

对信贷数据集训练后保存权重,加载权重后继续训练50轮,并采取早停策略。保存全部信息checkpoint,还包含训练状态。过拟合的判断:测试集和训练集同步打印指标。

2025-05-26 21:44:32 152

原创 day 26复习日

对之前的信贷项目,利用神经网络训练下,尝试用到目前的知识点让代码更加规范和美观。:尝试进入nn.Module中,查看他的方法。探索性作业(随意完成)

2025-05-25 22:50:52 185

原创 DAY 35 模型可视化与推理

三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化。使用LeakyReLU: 最终准确率 = 96.32%baseline: 最终准确率 = 96.05%进度条功能:手动和自动写法,让打印结果更加美观。增加隐藏层大小: 最终准确率 = 95.38%增加批量大小: 最终准确率 = 96.49%作业:调整模型定义时的超参数,对比下效果。降低学习率: 最终准确率 = 97.64%=== 最终结果比较 ===推理的写法:评估模式。

2025-05-24 21:20:06 471

原创 DAY 34 GPU训练及类的call方法

类的call方法:为什么定义前向传播时可以直接写作self.fc1(x)复习今天的内容,在巩固下代码。思考下为什么会出现这个问题。GPU训练的方法:数据和模型移动到GPU device上。CPU性能的查看:看架构代际、核心数、线程数。GPU性能的查看:看显存、看级别、看架构代际。

2025-05-23 21:20:02 121

原创 day 33简单的神经网络

查看显卡信息的命令行命令(cmd中使用)数据预处理(归一化、转换成张量)PyTorch和cuda的安装。继承nn.Module类。定义损失函数和优化器。

2025-05-22 20:06:58 812

原创 day32官方文档的阅读

参考pdpbox官方文档中的其他类,绘制相应的图,任选即可。官方文档的阅读和使用:要求安装的包和文档为同一个版本。官方文档的检索方式:github和官网。绘图的理解:对底层库的调用。普通方法所需要的参数。

2025-05-21 22:24:14 145

原创 DAY 31 文件的规范拆分和写法

尝试针对之前的心脏病项目,准备拆分的项目文件,思考下哪些部分可以未来复用。

2025-05-20 19:08:23 125

原创 day29

导入库/模块的核心逻辑:找到根目录(python解释器的目录和终端的目录不一致):自己新建几个不同路径文件尝试下如何导入。导入自定义库/模块的方式。导入官方库的三种手段。

2025-05-19 13:37:22 132

原创 day 28

我现在对这个工具处在大致理解而不能熟练应用的阶段,知道是什么但是说不出所以然。目前而言,Python对我来说,还是个黑匣子,我知道这是个很高效的工具,但是并不理解内部的构造。复习类和函数的知识点,写下自己过去29天的学习心得,如对函数和类的理解,对python这门工具的理解等,未来再过几个专题部分我们即将开启深度学习部分。

2025-05-18 21:47:36 114

原创 day27

calculate_perimeter():计算周长(公式:2×(长+宽))。is_square() 方法,判断是否为正方形(长 == 宽)。calculate_circumference():计算圆的周长(公式:2πr)。shape_type="rectangle":创建长方形(参数:长、宽)calculate_area():计算圆的面积(公式:πr²)。shape_type="circle":创建圆(参数:半径)。calculate_area():计算面积(公式:长×宽)。

2025-05-18 11:31:53 299

原创 DAY 26 函数专题2:装饰器

编写一个装饰器 logger,在函数执行前后打印日志信息(如函数名、参数、返回值)装饰器的思想:进一步复用。注意内部函数的返回值。

2025-05-16 21:19:42 109

原创 day 25

编写一个名为 calculate_circle_area 的函数,该函数接收圆的半径 radius 作为参数,并返回圆的面积。编写一个名为 calculate_average 的函数,该函数可以接收任意数量的数字作为参数(引入可变位置参数 (*args)),并返回它们的平均值。编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。如果长度或宽度为负数,函数应该返回 0。的函数,该函数接收图形的名称。

2025-05-15 21:07:09 806

原创 DAY24

理解今日的内容即可,可以检查自己过去借助ai写的代码是否带有try-except机制,以后可以尝试采用这类写法增加代码健壮性。在即将进入深度学习专题学习前,我们最后差缺补漏,把一些常见且重要的知识点给他们补上,加深对代码和流程的理解。try-except-else-finally机制。debug过程中的各类报错。try-except机制。

2025-05-14 22:44:48 255

原创 day 23

对自己电脑的不同文件夹利用今天学到的知识操作下,理解下os路径。

2025-05-13 22:30:37 119

原创 day22

知识回顾:转化器和估计器的概念管道工程ColumnTransformer和Pipeline类作业:整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline。

2025-05-12 22:32:38 215

原创 DAY21

自行学习参考如何使用kaggle平台,写下使用注意点,并对下述比赛提交代码。仔细回顾一下之前21天的内容,没跟上进度的同学补一下进度。

2025-05-11 20:59:41 139

原创 DAY20

作业:自由作业:探索下什么时候用到降维?降维的主要应用?或者让ai给你出题,群里的同学互相学习下。可以考虑对比下在某些特定数据集上t-sne的可视化和pca可视化的区别。

2025-05-10 23:38:32 693

原创 DAY19

SVD是一种强大的矩阵分解技术,可以在数据处理和分析中发挥重要作用,尤其在降维和特征提取方面。使用SVD,n_components=10 的精度: 0.8525。使用SVD,n_components=13 的精度: 0.8525。使用SVD,n_components=5 的精度: 0.8852。SVD 要做的就是把这个矩阵 A 分解成三个矩阵的乘积。不使用SVD的精度: 0.8525。累计方差解释率: 0.5948。累计方差解释率: 0.8988。累计方差解释率: 1.0000。

2025-05-09 20:34:18 174

原创 day 18

SHAP 重要性筛选后的精度: 0.5901639344262295。皮尔逊相关系数筛选后的精度: 0.8688524590163934。Lasso 筛选后的精度: 0.8688524590163934。树模型重要性筛选后的精度: 0.8524590163934426。递归特征消除筛选后的精度: 0.8852459016393442。方差筛选后的精度: 0.8524590163934426。作业:对心脏病数据集完成特征筛选,对比精度。2.皮尔逊相关系数筛选。6.递归特征消除REF。

2025-05-08 23:20:07 187

原创 DAY17

聚类后的分析:推断簇的类型。

2025-05-07 23:15:53 389

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除