- 博客(55)
- 收藏
- 关注
原创 6.26打卡
手动构造类似的数据集(如cosx数据),观察不同的机器学习模型的差异。经典机器学习在序列任务上的劣势;DAY 55 序列预测任务介绍。序列数据的处理:滑动窗口。多输入多输出任务的思路。
2025-06-26 17:17:28
422
原创 6.17打卡
之所以说传统,是因为现在主要是针对backbone-neck-head这样的范式做文章。特征融合方法阶段性总结:逐元素相加、逐元素相乘、concat通道数增加等。感受野与卷积核变体:深入理解不同模块和类的设计初衷。对inception网络在cifar10上观察精度。消融实验:引入残差机制和cbam模块分别进行消融。inception模块和网络。Inception网络。
2025-06-17 15:41:30
566
原创 6.16打卡
对于心脏病数据集,对于病人这个不平衡的样本用GAN来学习并生成病人样本,观察不用GAN和用GAN的F1分数差异。nn.sequential容器:适合于按顺序运算的情况,简化前向传播写法。leakyReLU介绍:避免relu的神经元失活现象。对抗生成网络的思想:关注损失从何而来。
2025-06-16 14:18:49
562
原创 6.13打卡
Epoch 50/50 完成 | 耗时: 32.76s | 训练准确率: 93.98% | 测试准确率: 87.89%day43的时候我们安排大家对自己找的数据集用简单cnn训练,现在可以尝试下借助这几天的知识来实现精度的进一步提高。DAY 51 复习日。对猫狗数据集进行训练。
2025-06-13 15:01:44
420
原创 6.12打卡
ps:今日的代码训练时长较长,3080ti大概需要40min的训练时长。DAY 50 预训练模型+CBAM模块。尝试对vgg16+cbam进行微调策略。好好理解下resnet18的模型结构。针对预训练模型的训练策略。CBAM放置位置的思考。resnet结构解析。
2025-06-12 14:15:42
646
原创 6.10打卡
卷积和池化的计算公式(可以不掌握,会自动计算的)ps:numpy运算也有类似的广播机制,基本一致。pytorch的广播机制:加法和乘法的广播机制。随机张量的生成:torch.randn函数。自己多借助ai举几个例子帮助自己理解即可。DAY 48 随机函数与广播机制。
2025-06-10 15:45:17
534
原创 6.08打卡
什么是注意力:注意力家族,类似于动物园,都是不同的模块,好不好试了才知道。对比不同卷积层特征图可视化的结果(可选)DAY 46 通道注意力(SE注意力)不同CNN层的特征图:不同通道的特征图。通道注意力:模型的定义和插入的位置。通道注意力后的特征图和热力图。今日代码较多,理解逻辑即可。
2025-06-08 13:38:45
323
原创 6.07打卡
对resnet18在cifar10上采用微调策略下,用tensorboard监控训练过程。tensorboard在cifar上的实战:MLP和CNN模型。DAY 45 Tensorboard使用介绍。tensorboard的发展历史和原理。tensorboard的常见操作。
2025-06-07 18:30:31
498
原创 6.05打卡
Epoch 10 完成 | 训练损失: 0.6134 | 训练准确率: 78.49% | 测试准确率: 84.19%尝试在cifar10对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同。尝试通过ctrl进入resnet的内部,观察残差究竟是什么。预训练代码实战:resnet18。DAY 44 预训练模型。图像预训练模型的发展史。常见的分类预训练模型。
2025-06-05 13:22:34
758
原创 6.04打卡
kaggle找到一个图像数据集,用cnn网络进行训练并且用grad-cam做可视化。损失: 0.502 | 准确率: 75.53% 训练完成。进阶:并拆分成多个文件。DAY 43 复习日。
2025-06-04 13:14:54
641
原创 6.02打卡
Flatten -> Dense (with Dropout,可选) -> Dense (Output)1. 输入 → 卷积层 → Batch归一化层(可选) → 池化层 → 激活函数 → 下一层。如果之前没有学习过复试班强化班中的计算机视觉部分,请自行上网检索视频了解下基础概念。尝试手动修改下不同的调度器和CNN的结构,观察训练的差异。batch归一化:调整一个批次的分布,常用与图像数据。,也可以对照我提供的之前的讲义学习下。特征图:只有卷积操作输出的才叫特征图。这里相关的概念比较多,
2025-06-02 13:20:10
513
原创 6.01打卡
仔细学习下测试和训练代码的逻辑,这是基础,这个代码框架后续会一直沿用,后续的重点慢慢就是转向模型定义阶段了。dropout操作:训练阶段随机丢弃神经元,测试阶段eval模式关闭dropout。展平操作:除第一个维度batchsize外全部展平。彩色和灰度图片测试和训练的规范写法:封装在函数中。训练和测试的规范写法。
2025-06-01 14:12:28
625
原创 5.29打卡
Dataset类的__getitem__和__len__方法(本质是python的特殊方法)DAY 38 Dataset和Dataloader类。了解下cifar数据集,尝试获取其中一张图片。minist手写数据集的了解。Dataloader类。
2025-05-29 19:47:41
1366
原创 5.28打卡
原始模型训练进度: 100%|██████████| 10000/10000 [00:06<00:00, 1656.33epoch/s, Loss=0.4717]Training time: 18.91 seconds 测试集准确率: 77.07%对信贷数据集训练后保存权重,加载权重后继续训练50轮,并采取早停策略。保存全部信息checkpoint,还包含训练状态。过拟合的判断:测试集和训练集同步打印指标。DAY 37 早停策略和模型权重的保存。原始模型测试集准确率: 76.80%
2025-05-28 14:56:13
703
原创 5.27打卡
原始模型训练进度: 100%|██████████| 20000/20000 [00:10<00:00, 1844.71epoch/s, Loss=0.4630]对之前的信贷项目,利用神经网络训练下,尝试用到目前的知识点让代码更加规范和美观。仔细回顾一下神经网络到目前的内容,没跟上进度的同学补一下进度。原始模型测试集准确率: 77.07%使用设备: cuda:0。DAY 36 复习日。
2025-05-27 11:55:19
680
原创 5.26打卡
调整后模型训练进度: 100%|██████████| 30000/30000 [00:29<00:00, 1033.96epoch/s, Loss=0.2562]原始模型训练进度: 100%|██████████| 20000/20000 [00:20<00:00, 977.14epoch/s, Loss=0.0627]三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化。进度条功能:手动和自动写法,让打印结果更加美观。作业:调整模型定义时的超参数,对比下效果。
2025-05-26 19:34:02
644
原创 5.25打卡
使用设备: cuda:0 Training time: 12.95 seconds;类的call方法:为什么定义前向传播时可以直接写作self.fc1(x)GPU训练的方法:数据和模型移动到GPU device上。CPU性能的查看:看架构代际、核心数、线程数。GPU性能的查看:看显存、看级别、看架构代际。DAY 34 GPU训练及类的call方法。
2025-05-25 15:36:52
370
原创 5.22打卡
1. 分类任务中,若标签是整数(如 0/1/2 类别),需转为long类型(对应 PyTorch 的torch.long),否则交叉熵损失函数会报错。2. 回归任务中,标签需转为float类型(如torch.float32)。今日的代码,要做到能够手敲。这已经是最简单最基础的版本了。查看显卡信息的命令行命令(cmd中使用)数据预处理(归一化、转换成张量)PyTorch和cuda的安装。DAY 33 简单的神经网络。继承nn.Module类。定义损失函数和优化器。
2025-05-22 11:00:25
616
原创 5.21打卡
参考pdpbox官方文档中的其他类,绘制相应的图,任选即可。官方文档的阅读和使用:要求安装的包和文档为同一个版本。官方文档的检索方式:github和官网。DAY 32 官方文档的阅读。绘图的理解:对底层库的调用。普通方法所需要的参数。
2025-05-21 13:31:26
762
原创 5.19打卡
场景2: `main.py` 和 `circle.py` 都在根目录的子目录 `model/` 下。├── __init__.py (必需添加,将 model 目录标记为一个可导入的包)场景3: `main.py` 在根目录,`circle.py` 在子目录 `model/` 下。导入库/模块的核心逻辑:找到根目录(python解释器的目录和终端的目录不一致)场景1: `main.py` 和 `circle.py` 都在同一目录。:自己新建几个不同路径文件尝试下如何导入。导入自定义库/模块的方式。
2025-05-19 14:03:04
630
原创 5.17打卡
calculate_perimeter():计算周长(公式:2×(长+宽))。is_square() 方法,判断是否为正方形(长 == 宽)。calculate_circumference():计算圆的周长(公式:2πr)。shape_type="rectangle":创建长方形(参数:长、宽)。calculate_area():计算圆的面积(公式:πr²)。shape_type="circle":创建圆(参数:半径)。calculate_area():计算面积(公式:长×宽)。
2025-05-17 12:23:10
452
原创 5.16打卡
编写一个装饰器 logger,在函数执行前后打印日志信息(如函数名、参数、返回值)DAY 27 函数专题2:装饰器。装饰器的思想:进一步复用。注意内部函数的返回值。
2025-05-16 15:23:35
369
原创 5.15打卡
编写一个名为 calculate_circle_area 的函数,该函数接收圆的半径 radius 作为参数,并返回圆的面积。编写一个名为 calculate_average 的函数,该函数可以接收任意数量的数字作为参数(引入可变位置参数 (*args)),并返回它们的平均值。编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。函数的参数类型:位置参数、默认参数、不定参数。user_id 是一个必需的位置参数。
2025-05-15 13:29:10
1726
原创 5.14y打卡
理解今日的内容即可,可以检查自己过去借助ai写的代码是否带有try-except机制,以后可以尝试采用这类写法增加代码健壮性。在即将进入深度学习专题学习前,我们最后差缺补漏,把一些常见且重要的知识点给他们补上,加深对代码和流程的理解。try-except-else-finally机制。debug过程中的各类报错。try-except机制。DAY 25 异常处理。
2025-05-14 19:18:09
584
原创 5.12y打卡
整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline。ColumnTransformer和Pipeline类。DAY 23 pipeline管道。转化器和估计器的概念。
2025-05-12 13:52:02
519
原创 5.09py打卡
对于任何矩阵(如结构化数据可以变为:样本*特征的矩阵,图像数据天然就是矩阵),均可做等价的奇异值SVD分解,对于分解后的矩阵,可以选取保留前K个奇异值及其对应的奇异向量,重构原始矩阵,可以通过计算Frobenius 范数相对误差来衡量原始矩阵和重构矩阵的差异。应用:结构化数据中,将原来的m个特征降维成k个新的特征,新特征是原始特征的线性组合,捕捉了数据的主要方差信息,降维后的数据可以直接用于机器学习模型(如分类、回归),通常能提高计算效率并减少过拟合风险。降噪:通常噪声对应较小的奇异值。
2025-05-09 13:45:54
635
原创 5.07py打卡
参考示例代码对心脏病数据集采取类似操作,并且评估特征工程后模型效果有无提升。引入聚类特征后,模型精度从0.84提升到0.87,说明聚类有用。推断簇含义的2个思路:先选特征和后选特征。科研逻辑闭环:通过精度判断特征工程价值。通过可视化图形借助ai定义簇的含义。聚类后的分析:推断簇的类型。
2025-05-07 09:58:40
628
原创 5.06py打卡
实际在论文中聚类的策略不一定是针对所有特征,可以针对其中几个可以解释的特征进行聚类,得到聚类后的类别,这样后续进行解释也更加符合逻辑。DBSCAN 的参数是 eps 和min_samples,选完他们出现k和评估指标。除了经典的评估指标,还需要关注聚类出来每个簇对应的样本个数,避免太少没有意义。聚类常见算法:kmeans聚类、dbscan聚类、层次聚类。KMeans 和层次聚类的参数是K值,选完k指标就确定。以及层次聚类的 linkage准则等都需要仔细调优。选择合适的算法,根据评估指标调参( )
2025-05-06 12:51:58
671
原创 5.05py打卡
因为前天说了shap,这里涉及到数据形状尺寸问题,所以需要在这一节说清楚,后续的神经网络我们将要和他天天打交道。1. numpy数组的创建:简单创建、随机创建、遍历、运算。2. numpy数组的索引:一维、二维、三维。3. SHAP值的深入理解。
2025-05-05 14:36:38
833
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅