自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(55)
  • 收藏
  • 关注

原创 6.26打卡

手动构造类似的数据集(如cosx数据),观察不同的机器学习模型的差异。经典机器学习在序列任务上的劣势;DAY 55 序列预测任务介绍。序列数据的处理:滑动窗口。多输入多输出任务的思路。

2025-06-26 17:17:28 422

原创 6.17打卡

之所以说传统,是因为现在主要是针对backbone-neck-head这样的范式做文章。特征融合方法阶段性总结:逐元素相加、逐元素相乘、concat通道数增加等。感受野与卷积核变体:深入理解不同模块和类的设计初衷。对inception网络在cifar10上观察精度。消融实验:引入残差机制和cbam模块分别进行消融。inception模块和网络。Inception网络。

2025-06-17 15:41:30 566

原创 6.16打卡

对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法。leakyReLU介绍:避免relu的神经元失活现象。对抗生成网络的思想:关注损失从何而来。

2025-06-16 14:18:49 562

原创 6.15打卡

作业:对于day'41的简单cnn,看看是否可以借助调参指南进一步提高精度。DAY 52 神经网络调参指南。各部分参数的调整心得。

2025-06-15 13:25:40 475

原创 6.13打卡

Epoch 50/50 完成 | 耗时: 32.76s | 训练准确率: 93.98% | 测试准确率: 87.89%day43的时候我们安排大家对自己找的数据集用简单cnn训练,现在可以尝试下借助这几天的知识来实现精度的进一步提高。DAY 51 复习日。对猫狗数据集进行训练。

2025-06-13 15:01:44 420

原创 6.12打卡

ps:今日的代码训练时长较长,3080ti大概需要40min的训练时长。DAY 50 预训练模型+CBAM模块。尝试对vgg16+cbam进行微调策略。好好理解下resnet18的模型结构。针对预训练模型的训练策略。CBAM放置位置的思考。resnet结构解析。

2025-06-12 14:15:42 646

原创 6.11打卡

尝试对今天的模型检查参数数目,并用tensorboard查看训练过程。DAY 49 CBAM注意力。

2025-06-11 16:08:06 529

原创 6.10打卡

卷积和池化的计算公式(可以不掌握,会自动计算的)ps:numpy运算也有类似的广播机制,基本一致。pytorch的广播机制:加法和乘法的广播机制。随机张量的生成:torch.randn函数。自己多借助ai举几个例子帮助自己理解即可。DAY 48 随机函数与广播机制。

2025-06-10 15:45:17 534

原创 6.09打卡

昨天代码中注意力热图的部分顺移至今天。作业:对比不同卷积层热图可视化的结果。DAY 47 注意力热图可视化。

2025-06-09 08:35:24 608

原创 6.08打卡

什么是注意力:注意力家族,类似于动物园,都是不同的模块,好不好试了才知道。对比不同卷积层特征图可视化的结果(可选)DAY 46 通道注意力(SE注意力)不同CNN层的特征图:不同通道的特征图。通道注意力:模型的定义和插入的位置。通道注意力后的特征图和热力图。今日代码较多,理解逻辑即可。

2025-06-08 13:38:45 323

原创 6.07打卡

对resnet18在cifar10上采用微调策略下,用tensorboard监控训练过程。tensorboard在cifar上的实战:MLP和CNN模型。DAY 45 Tensorboard使用介绍。tensorboard的发展历史和原理。tensorboard的常见操作。

2025-06-07 18:30:31 498

原创 6.05打卡

Epoch 10 完成 | 训练损失: 0.6134 | 训练准确率: 78.49% | 测试准确率: 84.19%尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同。尝试通过ctrl进入resnet的内部,观察残差究竟是什么。预训练代码实战:resnet18。DAY 44 预训练模型。图像预训练模型的发展史。常见的分类预训练模型。

2025-06-05 13:22:34 758

原创 6.04打卡

kaggle找到一个图像数据集,用cnn网络进行训练并且用grad-cam做可视化。损失: 0.502 | 准确率: 75.53% 训练完成。进阶:并拆分成多个文件。DAY 43 复习日。

2025-06-04 13:14:54 641

原创 6.03打卡

DAY 42 Grad-CAM与Hook函数。hook函数的模块钩子和张量钩子。Grad-CAM的示例。理解下今天的代码即可。

2025-06-03 11:14:12 415

原创 6.02打卡

Flatten -> Dense (with Dropout,可选) -> Dense (Output)1. 输入 → 卷积层 → Batch归一化层(可选) → 池化层 → 激活函数 → 下一层。如果之前没有学习过复试班强化班中的计算机视觉部分,请自行上网检索视频了解下基础概念。尝试手动修改下不同的调度器和CNN的结构,观察训练的差异。batch归一化:调整一个批次的分布,常用与图像数据。,也可以对照我提供的之前的讲义学习下。特征图:只有卷积操作输出的才叫特征图。这里相关的概念比较多,

2025-06-02 13:20:10 513

原创 6.01打卡

仔细学习下测试和训练代码的逻辑,这是基础,这个代码框架后续会一直沿用,后续的重点慢慢就是转向模型定义阶段了。dropout操作:训练阶段随机丢弃神经元,测试阶段eval模式关闭dropout。展平操作:除第一个维度batchsize外全部展平。彩色和灰度图片测试和训练的规范写法:封装在函数中。训练和测试的规范写法。

2025-06-01 14:12:28 625

原创 5.30打卡

batchisize和训练的关系。图像数据的格式:灰度和彩色数据。DAY 39 图像数据与显存。今日代码较少,理解内容即可。

2025-05-30 10:57:04 343

原创 5.29打卡

Dataset类的__getitem__和__len__方法(本质是python的特殊方法)DAY 38 Dataset和Dataloader类。了解下cifar数据集,尝试获取其中一张图片。minist手写数据集的了解。Dataloader类。

2025-05-29 19:47:41 1366

原创 5.28打卡

原始模型训练进度: 100%|██████████| 10000/10000 [00:06<00:00, 1656.33epoch/s, Loss=0.4717]Training time: 18.91 seconds 测试集准确率: 77.07%对信贷数据集训练后保存权重,加载权重后继续训练50轮,并采取早停策略。保存全部信息checkpoint,还包含训练状态。过拟合的判断:测试集和训练集同步打印指标。DAY 37 早停策略和模型权重的保存。原始模型测试集准确率: 76.80%

2025-05-28 14:56:13 703

原创 5.27打卡

原始模型训练进度: 100%|██████████| 20000/20000 [00:10<00:00, 1844.71epoch/s, Loss=0.4630]对之前的信贷项目,利用神经网络训练下,尝试用到目前的知识点让代码更加规范和美观。仔细回顾一下神经网络到目前的内容,没跟上进度的同学补一下进度。原始模型测试集准确率: 77.07%使用设备: cuda:0。DAY 36 复习日。

2025-05-27 11:55:19 680

原创 5.26打卡

调整后模型训练进度: 100%|██████████| 30000/30000 [00:29<00:00, 1033.96epoch/s, Loss=0.2562]原始模型训练进度: 100%|██████████| 20000/20000 [00:20<00:00, 977.14epoch/s, Loss=0.0627]三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化。进度条功能:手动和自动写法,让打印结果更加美观。作业:调整模型定义时的超参数,对比下效果。

2025-05-26 19:34:02 644

原创 5.25打卡

使用设备: cuda:0 Training time: 12.95 seconds;类的call方法:为什么定义前向传播时可以直接写作self.fc1(x)GPU训练的方法:数据和模型移动到GPU device上。CPU性能的查看:看架构代际、核心数、线程数。GPU性能的查看:看显存、看级别、看架构代际。DAY 34 GPU训练及类的call方法。

2025-05-25 15:36:52 370

原创 5.22打卡

1. 分类任务中,若标签是整数(如 0/1/2 类别),需转为long类型(对应 PyTorch 的torch.long),否则交叉熵损失函数会报错。2. 回归任务中,标签需转为float类型(如torch.float32)。今日的代码,要做到能够手敲。这已经是最简单最基础的版本了。查看显卡信息的命令行命令(cmd中使用)数据预处理(归一化、转换成张量)PyTorch和cuda的安装。DAY 33 简单的神经网络。继承nn.Module类。定义损失函数和优化器。

2025-05-22 11:00:25 616

原创 5.21打卡

参考pdpbox官方文档中的其他类,绘制相应的图,任选即可。官方文档的阅读和使用:要求安装的包和文档为同一个版本。官方文档的检索方式:github和官网。DAY 32 官方文档的阅读。绘图的理解:对底层库的调用。普通方法所需要的参数。

2025-05-21 13:31:26 762

原创 5.20打卡

尝试针对之前的心脏病项目,准备拆分的项目文件,思考下哪些部分可以未来复用。DAY 31 文件的规范拆分和写法。

2025-05-20 22:18:59 812

原创 5.19打卡

场景2: `main.py` 和 `circle.py` 都在根目录的子目录 `model/` 下。├── __init__.py (必需添加,将 model 目录标记为一个可导入的包)场景3: `main.py` 在根目录,`circle.py` 在子目录 `model/` 下。导入库/模块的核心逻辑:找到根目录(python解释器的目录和终端的目录不一致)场景1: `main.py` 和 `circle.py` 都在同一目录。:自己新建几个不同路径文件尝试下如何导入。导入自定义库/模块的方式。

2025-05-19 14:03:04 630

原创 5.18打卡

装饰器思想的进一步理解:外部修改、动态。类方法的定义:内部定义和外部定义。DAY 29 复习日。

2025-05-18 13:25:14 398

原创 5.17打卡

calculate_perimeter():计算周长(公式:2×(长+宽))。is_square() 方法,判断是否为正方形(长 == 宽)。calculate_circumference():计算圆的周长(公式:2πr)。shape_type="rectangle":创建长方形(参数:长、宽)。calculate_area():计算圆的面积(公式:πr²)。shape_type="circle":创建圆(参数:半径)。calculate_area():计算面积(公式:长×宽)。

2025-05-17 12:23:10 452

原创 5.16打卡

编写一个装饰器 logger,在函数执行前后打印日志信息(如函数名、参数、返回值)DAY 27 函数专题2:装饰器。装饰器的思想:进一步复用。注意内部函数的返回值。

2025-05-16 15:23:35 369

原创 5.15打卡

编写一个名为 calculate_circle_area 的函数,该函数接收圆的半径 radius 作为参数,并返回圆的面积。编写一个名为 calculate_average 的函数,该函数可以接收任意数量的数字作为参数(引入可变位置参数 (*args)),并返回它们的平均值。编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。函数的参数类型:位置参数、默认参数、不定参数。user_id 是一个必需的位置参数。

2025-05-15 13:29:10 1726

原创 5.14y打卡

理解今日的内容即可,可以检查自己过去借助ai写的代码是否带有try-except机制,以后可以尝试采用这类写法增加代码健壮性。在即将进入深度学习专题学习前,我们最后差缺补漏,把一些常见且重要的知识点给他们补上,加深对代码和流程的理解。try-except-else-finally机制。debug过程中的各类报错。try-except机制。DAY 25 异常处理。

2025-05-14 19:18:09 584

原创 5.13y打卡

对自己电脑的不同文件夹利用今天学到的知识操作下,理解下os路径。DAY 24 元组和OS模块。

2025-05-13 11:31:41 603

原创 5.12y打卡

整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline。ColumnTransformer和Pipeline类。DAY 23 pipeline管道。转化器和估计器的概念。

2025-05-12 13:52:02 519

原创 5.11y打卡

自行学习参考如何使用kaggle平台,写下使用注意点,并对下述比赛提交代码。DAY 22 复习日。

2025-05-11 18:20:32 486

原创 5.10py打卡

DAY 21 常见的降维算法。

2025-05-10 11:10:19 522

原创 5.09py打卡

对于任何矩阵(如结构化数据可以变为:样本*特征的矩阵,图像数据天然就是矩阵),均可做等价的奇异值SVD分解,对于分解后的矩阵,可以选取保留前K个奇异值及其对应的奇异向量,重构原始矩阵,可以通过计算Frobenius 范数相对误差来衡量原始矩阵和重构矩阵的差异。应用:结构化数据中,将原来的m个特征降维成k个新的特征,新特征是原始特征的线性组合,捕捉了数据的主要方差信息,降维后的数据可以直接用于机器学习模型(如分类、回归),通常能提高计算效率并减少过拟合风险。降噪:通常噪声对应较小的奇异值。

2025-05-09 13:45:54 635

原创 5.08py打卡

皮尔逊相关系数筛选可以显著提升模型效果0.84→。对心脏病数据集完成特征筛选,对比精度。

2025-05-08 12:03:08 664

原创 5.07py打卡

参考示例代码对心脏病数据集采取类似操作,并且评估特征工程后模型效果有无提升。引入聚类特征后,模型精度从0.84提升到0.87,说明聚类有用。推断簇含义的2个思路:先选特征和后选特征。科研逻辑闭环:通过精度判断特征工程价值。通过可视化图形借助ai定义簇的含义。聚类后的分析:推断簇的类型。

2025-05-07 09:58:40 628

原创 5.06py打卡

实际在论文中聚类的策略不一定是针对所有特征,可以针对其中几个可以解释的特征进行聚类,得到聚类后的类别,这样后续进行解释也更加符合逻辑。DBSCAN 的参数是 eps 和min_samples,选完他们出现k和评估指标。除了经典的评估指标,还需要关注聚类出来每个簇对应的样本个数,避免太少没有意义。聚类常见算法:kmeans聚类、dbscan聚类、层次聚类。KMeans 和层次聚类的参数是K值,选完k指标就确定。以及层次聚类的 linkage准则等都需要仔细调优。选择合适的算法,根据评估指标调参( )

2025-05-06 12:51:58 671

原创 5.05py打卡

因为前天说了shap,这里涉及到数据形状尺寸问题,所以需要在这一节说清楚,后续的神经网络我们将要和他天天打交道。1. numpy数组的创建:简单创建、随机创建、遍历、运算。2. numpy数组的索引:一维、二维、三维。3. SHAP值的深入理解。

2025-05-05 14:36:38 833

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除