- 博客(50)
- 收藏
- 关注
原创 DAY50 预训练模型+CBAM模块
是残差网络中最重要的思想。网络堆叠层数过多后,模型准确率会下降,即“网络退化”。BasicBlock 不让网络层直接学习一个目标映射H(x),而是学习映射与输入之间的差值,即残差。它能够简化学习目标,通过快捷连接/条约链接,避免了信息丢失或梯度消失的问题。
2025-08-21 13:37:59
817
原创 DAY49 CBAM注意力
能够集成到任何卷积神经网络架构中的注意力模块核心目标:通过学习的方式,自动获取特征图在通道和空间维度上的重要性,进而对特征图进行自适应调整,增强重要特征,抑制不重要特征,提升模型的特征表达能力和性能主要部分组成:通道注意力模块(Channel Attention Module)和空间注意力模块(Spatial Attention Module),这两个模块顺序连接与SE的不同之处:输入特征图 → 通道注意力模块 → 空间注意力模块 → 输出增强后的特征图。
2025-08-20 14:04:29
347
原创 DAY46 通道注意力(SE注意力)
注意力机制是一种让模型学会「选择性关注重要信息」的特征提取器,就像人类视觉会自动忽略背景,聚焦于图片中的主体(如猫、汽车)。transformer中的叫做自注意力机制,他是一种自己学习自己的机制,他可以自动学习到图片中的主体,并忽略背景。我们现在说的很多模块,比如通道注意力、空间注意力、通道注意力等等,都是基于自注意力机制的。通道注意力(Channel Attention)属于注意力机制(Attention Mechanism)的变体,而非自注意力(Self-Attention)的直接变体。
2025-08-17 12:15:05
677
原创 DAY44 预训练模型
模型年份提出团队关键创新点层数参数量ImageNet Top-5错误率典型应用场景预训练权重可用性LeNet-51998Yann LeCun等首个CNN架构,卷积层+池化层+全连接层,Sigmoid激活函数7~60KN/A手写数字识别(MNIST)无(历史模型)AlexNet2012Alex Krizhevsky等ReLU激活函数、Dropout、数据增强、GPU训练860M15.3%大规模图像分类PyTorch/TensorFlow官方支持VGGNet。
2025-08-15 10:28:38
828
原创 DAY40 训练和测试的规范写法
作业:仔细学习下测试和训练代码的逻辑,这是基础,这个代码框架后续会一直沿用,后续的重点慢慢就是转向模型定义阶段了。
2025-08-11 12:40:37
219
原创 DAY39 图像数据与显存
minist这个经典的手写数据集,作为图像数据,相较于结构化数据(表格数据)他的特点在于他每个样本的的形状并不是(特征数,),而是(宽,高,通道数)维度索引含义数值说明0通道数(Channels)1表示这是一张灰度图(仅有一个颜色通道,如黑白照片)。如果是彩色图(如RGB),通道数为3。1高度(Height)28表示图像的垂直像素数为28像素。2宽度(Width)28表示图像的水平像素数为28像素。
2025-08-10 19:30:25
645
原创 DAY34 GPU训练及类的call方法
要是它们不在同一设备上,就会引发运行时错误。并非所有 PyTorch 对象都有 .to(device) 方法,只有继承自 torch.nn.Module 的模型以及 torch.Tensor 对象才有此方法。在 Python 中,__ call__ 方法是一个特殊的魔术方法(双下划线方法),它允许类的实例像函数一样被调用。这种特性使得对象可以表现得像函数,同时保留对象的内部状态。在 PyTorch 里,.to(device) 方法的作用是把张量或者模型转移到指定的计算设备(像 CPU 或者 GPU)上。
2025-08-05 10:41:44
375
原创 DAY33 MLP神经网络的训练
包含一个输入层,一个隐藏层和一个输出层定义层数和向前传播顺序class MLP(nn.Module): # 多层感知器MLP模型,继承父类nn.Modulesuper(MLP, self).__init__() # 调用父类的初始化函数self.fc1 = nn.Linear(4, 10) # 输出层到隐藏层self.fc2 = nn.Linear(10, 3) # 隐藏层到输出层# 输出层不需要激活函数,因为后面会用到交叉熵函数,内部有softmax函数,会把输出转为概率。
2025-08-04 13:08:14
383
原创 DAY29 复习日:类的装饰器
作业:复习类和函数的知识点,写下自己过去29天的学习心得,如对函数和类的理解,对python这门工具的理解等,未来再过几个专题部分我们即将开启深度学习部分。
2025-07-31 10:35:27
430
原创 DAY28 类的定义和方法
包含属性:半径 radius。包含方法:calculate_area():计算圆的面积(公式:πr²)。calculate_circumference():计算圆的周长(公式:2πr)。初始化时需传入半径,默认值为 1。### 题目1:定义园类"""初始化圆,半径默认为1""""""计算圆的面积""""""计算圆的周长"""# 示例运行。
2025-07-30 10:59:57
353
原创 DAY25 异常处理
作业:理解今日的内容即可,可以检查自己过去借助ai写的代码是否带有try-except机制,以后可以尝试采用这类写法增加代码健壮性。
2025-07-27 12:05:56
863
原创 DAY22 复习日
代码太长可以考虑将预处理操作放在自定义函数中,分别对训练集和测试集使用,可以减少代码长度。作业:自行学习参考如何使用kaggle平台,写下使用注意点,并对下述比赛提交代码。
2025-07-24 16:06:52
425
原创 DAY21 常见的降维算法
作业:探索下什么时候用到降维?降维的主要应用?或者让ai给你出题,群里的同学互相学习下。可以考虑对比下在某些特定数据集上t-sne的可视化和pca可视化的区别。
2025-07-23 12:55:57
673
原创 DAY16 数组的常见操作和形状
索引顺序:在二维数组 arr2d 里,第一个索引值代表行,第二个索引值代表列。比如 arr2d[i, j] ,i 是行索引,j 是列索引。SHAP值中,shap_values是一个numpy数组,对应(样本数,特征数,类别数)。取出第一行,对应的是(特征数,类别数目),表示这个样本对应的特征对目标类别的shap值贡献。这二者组合后,就可以组合(特征数,特征值,shap值)构成shap图的基本元素。矩阵点乘:满足两个矩阵的行数和列数相同,矩阵的加减:矩阵a和b行列相同,矩阵乘法:a的列数等于b的行数,
2025-07-18 17:02:12
502
原创 DAY15 复习日
尝试找到一个kaggle或者其他地方的结构化数据集,用之前的内容完成一个全新的项目,这样你也是独立完成了一个专属于自己的项目。
2025-07-17 16:21:23
647
原创 DAY14 SHAP图的绘制
作用:SHAP模型能让我们知道这些已知条件到底对最终预测结果起到哪些影响对于回归问题:模型只有一个输出,对 n_samples 个样本中的每一个,计算 n_features个 特征各自的SHAP值,得到形状为 (n_samples, n_features) 的数组对于分类问题:模型通常为每个类别输出一个分数或概率,对 n_samples 个样本中的每一个,分别为每个类别计算 n_features 个特征的 SHAP 值。最常见的组织方式是返回一个列表,列表长度等于类别数。
2025-07-16 16:45:35
447
原创 DAY13 不平衡数据的处理
作业:从示例代码可以看到,效果没有变好,所以很多步骤都是理想是好的,但是现实并不一定可以变好。以信贷数据集+随机森林模型为例,分别介绍。
2025-07-15 12:59:18
488
原创 DAY11 常见的调参方式
作业:对于信贷数据(这里使用了心脏病数据)的其他模型,如 LightGBM 和 KNN 尝试用下贝叶斯优化和网格搜索。
2025-07-13 12:47:17
924
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅