- 博客(51)
- 收藏
- 关注
原创 Python训练营打卡 Day55
序列预测介绍单步预测:根据历史数据预测下一个时间点的值。这就像根据之前的天气情况预测明天的气温。多步预测的2种方式递归预测:使用模型多次预测,将前一次的预测结果作为下一次的输入。这就像连续多天的天气预报,每次都用前一天的预测结果来预测下一天。直接预测:模型直接输出多个时间点的预测值。这就像一次性预测未来一周的天气情况。序列数据的处理:滑动窗口滑动窗口:将序列数据分割成多个窗口,每个窗口包含固定数量的历史数据点,用于预测下一个或多个数据点。
2025-06-19 20:23:30
462
原创 Python训练营打卡 Day54
知识点回顾:传统计算机视觉发展史:LeNet:像是早期的简单食谱,为后续复杂模型奠定基础。AlexNet:引入了深度和ReLU激活函数,如同在厨房中引入了新的烹饪工具和方法。VGGNet:通过增加网络深度来提升性能,如同增加菜谱的步骤以丰富菜品。InceptionNet:引入多尺度特征提取,如同在烹饪中考虑不同食材的处理方式。ResNet:引入残差连接解决梯度消失问题,如同在厨房中引入新的流程优化方法。Inception 模块和网络:Inception 模块通过多分支结构提取不同尺度的特征,类似在厨房中使用
2025-06-15 20:15:36
507
原创 Python训练营打卡 Day53
知识点回顾:对抗生成网络的思想思想:就像在餐厅中,有一个厨师(生成器)负责制作假菜,一个评论家(判别器)负责区分真菜和假菜。厨师的目标是制作出评论家无法区分的假菜,而评论家的目标是找出假菜。通过不断的对抗训练,厨师的厨艺(生成器的生成能力)和评论家的鉴赏力(判别器的判别能力)都会不断提高。对抗生成网络(GAN)由两个模型组成:生成器和判别器。生成器的目标是生成尽可能真实的样本,而判别器的目标是区分真实样本和生成样本。两者通过对抗训练不断优化,最终达到纳什均衡。损失来源:GAN 的损失函数来自生成器和判别器之
2025-06-13 20:58:09
673
原创 Python训练营打卡 Day52
学习率决定了权重更新的幅度。这好比根据餐厅运营状况灵活调整营销策略,初始高学习率快速降低损失,后期低学习率精细调整。这好比根据餐厅运营状况灵活调整营销策略,初始高学习率快速降低损失,后期低学习率精细调整。类似于餐厅的卫生标准,适当的卫生标准可以防止食物中毒(过拟合),但标准过高会增加运营成本。类似于餐厅的管理策略,不同的管理策略(如 SGD、Adam)会影响餐厅的运营效率和顾客满意度。:随机种子就像是餐厅的每日菜单,确保每次运行代码时,模型初始化和数据打乱的随机操作保持一致,方便调试和对比结果。
2025-06-12 20:38:41
730
原创 Python训练营打卡 Day50
预训练模型+CBAM模块知识点回顾:resnet结构解析CBAM放置位置的思考针对预训练模型的训练策略差异化学习率三阶段微调。
2025-06-10 21:05:30
1138
原创 Python训练营打卡 Day49
CBAM(Convolutional Block Attention Module)是一种综合了通道注意力和空间注意力的注意力机制。它先通过通道注意力模块评估特征通道的重要性,再通过空间注意力模块评估特征图中每个空间位置的重要性,从而更全面地提升特征表达能力。作业:尝试对今天的模型检查参数数目,并用tensorboard查看训练过程。
2025-06-09 22:40:35
310
原创 【无标题】
随机函数与广播机制知识点回顾:随机张量的生成:torch.randn函数卷积和池化的计算公式(可以不掌握,会自动计算的)pytorch的广播机制:加法和乘法的广播机制ps:numpy运算也有类似的广播机制,基本一致。
2025-06-08 21:11:19
745
原创 Python训练营打卡 Day47
展示了模型(厨师)在处理图像(食材)时关注的重点区域,帮助理解模型的决策依据。:就像在餐厅中,用热成像仪显示顾客对不同区域的关注度,颜色越亮表示关注度越高。:每个卷积层输出的特征图就像厨师在每一步处理后的食材状态,包含不同的特征信息。:类似于厨师在烹饪过程中不同的处理步骤,每一步都会提取不同的特征。昨天代码中注意力热图的部分顺移至今天。作业:对比不同卷积层热图可视化的结果。
2025-06-07 19:20:38
362
原创 Python训练营打卡 Day46
注意力概念:如同在嘈杂的餐厅中,顾客注意力集中在某道菜上,深度学习模型的注意力机制让模型集中精力在输入数据的关键部分。注意力家族:有不同的注意力机制,如同动物园中有多种动物,各有特点,如SE注意力、空间注意力等,需通过实验确定哪种更有效。模型的定义:类似于在餐厅中制定烹饪流程,通道注意力定义了如何动态调整不同特征通道的重要性。插入的位置:通常紧接着卷积层或池化层后,如在ResNet中,将SE模块插入每个残差块中。
2025-06-06 20:42:06
800
1
原创 Python训练营打卡 Day45
TensorBoard 的发展历史和原理发展历史:TensorBoard 最初是作为 TensorFlow 的“厨房日志系统”开发的,用于记录和展示烹饪过程中的各种数据,后来逐渐发展为一个独立的工具,支持多种厨房(机器学习框架)。原理:TensorBoard 通过在烹饪过程中记录详细的日志(训练过程中的各种指标),然后读取这些日志文件来展示烹饪过程中的温度(损失)、食材质量(准确率)等信息。
2025-06-05 20:51:15
969
原创 Python训练营打卡 Day44
预训练模型知识点回顾:预训练的概念常见的分类预训练模型图像预训练模型的发展史预训练的策略预训练代码实战:resnet18。
2025-06-04 15:30:23
745
原创 Python训练营打卡 Day43
Flatten(),])以上代码实现了使用 CNN 网络对猫狗图像数据集进行训练,并通过 Grad-CAM 对模型进行可视化。代码被拆分成多个文件,每个文件负责不同的功能模块,便于管理和维护。你可以根据实际需求调整网络结构、超参数和数据集路径等。通过训练脚本train.py进行模型训练,并通过回调函数保存最佳模型。使用test.py进行模型测试,评估模型性能。最后通过使用 Grad-CAM 对模型的预测结果进行可视化,生成热图并叠加到原图上,帮助理解模型的决策依据。@浙大疏锦行。
2025-06-02 20:57:53
279
原创 Python训练营打卡 Day42
回调函数就像是餐厅中的“点菜回调”,顾客告诉服务员点菜的条件,比如“当可乐有货时通知我”,服务员就会在可乐有货时回调通知顾客。
2025-06-01 21:00:28
1192
原创 Python训练营打卡 Day41
卷积神经网络(CNN)的定义就像是餐厅的高级菜谱,其中包含了多种复杂的烹饪步骤和技巧。CNN 通过卷积层、池化层、激活函数等组件来提取图像的特征,从而实现对图像的分类或识别。卷积块:包括卷积层、批量归一化层、ReLU 激活函数和最大池化层,用于提取图像特征。全连接层:将卷积层提取的特征展平后,通过全连接层进行分类,最后输出分类结果。
2025-05-31 19:56:30
784
原创 Python训练营打卡 Day39
模型定义:就像餐厅的菜谱,详细描述了如何制作每道菜。模型定义包括模型的结构(如神经网络的层数、每层的神经元数量等)和前向传播的过程。
2025-05-29 21:33:35
1091
原创 Python训练营打卡 Day38
Dataset和Dataloader类知识点回顾:Dataset类的__getitem__和__len__方法(本质是python的特殊方法)Dataloader类minist手写数据集的了解作业:了解下cifar数据集,尝试获取其中一张图片。
2025-05-29 21:22:11
337
原创 Python训练营打卡 Day37
早停策略和模型权重的保存知识点回顾:过拟合的判断:测试集和训练集同步打印指标模型的保存和加载仅保存权重保存权重和模型保存全部信息checkpoint,还包含训练状态早停策略。
2025-05-26 20:12:33
409
原创 Python训练营打卡 Day36
对之前的信贷项目,利用神经网络训练下,尝试用到目前的知识点让代码更加规范和美观。仔细回顾一下神经网络到目前的内容,没跟上进度的同学补一下进度。:尝试进入nn.Module中,查看他的方法。探索性作业(随意完成)
2025-05-25 19:45:09
872
原创 Python训练营打卡 Day35
模型可视化与推理知识点回顾:三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化进度条功能:手动和自动写法,让打印结果更加美观推理的写法:评估模式。
2025-05-24 19:37:45
294
原创 Python训练营打卡 Day34
当我们定义一个类时,call方法就像是厨师的烹饪流程。当我们直接写self.fc1(x)时,这相当于告诉厨师(模型)要先进行这一步骤(调用fc1层)来处理食材(数据)。通过定义call方法,我们能够让模型自动按照这个流程来处理数据,而不需要在每次调用时都明确写出整个流程,就像是厨师按照菜谱自动完成烹饪步骤一样。这样可以让代码结构更加清晰,也方便我们在不同的地方重复使用这个流程,提高了代码的复用性和可读性。
2025-05-23 20:31:13
1034
原创 Python训练营打卡 Day31
文件的规范拆分和写法今日的示例代码包含2个部分notebook文件夹内的ipynb文件,介绍下今天的思路项目文件夹中其他部分:拆分后的信贷项目,学习下如何拆分的,未来你看到的很多大项目都是类似的拆分方法。
2025-05-20 23:34:26
629
原创 Python训练营打卡 Day30
在一个大型餐厅里,菜谱(模块)被存放在不同的地方。有些菜谱在主厨房(当前目录),有些在专门的文件柜(子目录)里。不同的厨师(脚本)需要按照不同的菜谱(模块)来烹饪。
2025-05-19 19:48:47
504
原创 Python训练营打卡 Day29
餐厅经营 ≈ 机器学习项目食材采购(数据收集)→ 质检预处理(数据清洗)→ 研发菜品(特征工程)→ 厨房标准化生产(建模调参)→ 分析顾客反馈(模型解释)→ 优化菜单(模型迭代),最终目标是让餐厅(模型)高效盈利(准确预测),同时能灵活应对突发状况(鲁棒性)。
2025-05-18 19:55:24
1577
原创 Python训练营打卡 Day28
类是对属性和方法的封装,可以理解为模板,通过对模板实例化可以实现调用这个类的属性和方法。比如创建一个随机森林类,然后就可以调用他的训练和预测方法。现在我们来学一下自己定义一个类,这会让我们对于类这个对象理解的更加深刻ps:类的操作很多,我们这里只说一些在深度学习领域最常见和通用的。
2025-05-17 18:16:29
1051
原创 Python训练营打卡 Day27
装饰器就像是给函数“穿衣服”,通过装饰器可以在不修改原函数的情况下,增加额外的功能。而内部函数的返回值就像是“服务员端菜”,必须确保把结果返回给调用者,否则就失去了原函数的意义。作业编写一个装饰器 logger,在函数执行前后打印日志信息(如函数名、参数、返回值)@logger# 输出:# 开始执行函数 multiply,参数: (2, 3), {}# 函数 multiply 执行完毕,返回值: 6。
2025-05-16 22:26:41
919
原创 Python训练营打卡 Day26
当你点菜时,你可以明确告诉服务员你的需求,比如“我要一份宫保鸡丁,辣度是微辣,多放点花生”。这里,“辣度是微辣”和“多放点花生”就像是关键词参数,你通过参数名(辣度、花生)来明确你的需求。:你还可以有一些额外的要求,比如“我要一份宫保鸡丁,多放点花生”或“我要一份红烧肉,少放点油”。编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。:“我要一份宫保鸡丁(位置参数),辣度是中辣(默认参数),多放点花生(不定参数)”。
2025-05-15 19:57:25
1229
原创 Python训练营打卡 Day25
异常处理知识点回顾:异常处理机制debug过程中的各类报错try-except机制try-except-else-finally机制在即将进入深度学习专题学习前,我们最后差缺补漏,把一些常见且重要的知识点给他们补上,加深对代码和流程的理解。作业:理解今日的内容即可,可以检查自己过去借助ai写的代码是否带有try-except机制,以后可以尝试采用这类写法增加代码健壮性。
2025-05-14 19:39:47
1317
原创 Python训练营打卡 Day24
DAY 24 元组和OS模块知识点回顾:元组可迭代对象os模块作业:对自己电脑的不同文件夹利用今天学到的知识操作下,理解下os路径。
2025-05-13 19:35:19
437
原创 Python训练营打卡 Day23
DAY 23 pipeline管道知识回顾:转化器和估计器的概念管道工程ColumnTransformer和Pipeline类作业:整理下全部逻辑的先后顺序,看看能不能制作出适合所有机器学习的通用pipeline1. 转化器(Transformer)和估计器(Estimator)转化器(Transformer):想象一下,你有一堆生的食材,需要经过一系列处理才能变成美味的菜肴。比如,你可能需要把蔬菜洗净(填充缺失值)、切碎(标准化或归一化)、或者把肉类腌制(独热编码)。
2025-05-12 22:26:37
839
原创 Python训练营打卡 Day22
复习日仔细回顾一下之前21天的内容,没跟上进度的同学补一下进度。作业:自行学习参考如何使用kaggle平台,写下使用注意点,并对下述比赛提交代码。
2025-05-11 20:03:28
719
原创 Python训练营打卡 Day21
或者让ai给你出题,群里的同学互相学习下。:你把物品放在房间里,然后不断地调整它们的位置,让相似的物品放在一起,不相似的物品分开。比如,你把所有的书都放在书架上,把所有的餐具都放在厨房的柜子里。比如,你带走了厨房里的锅和刀,卧室里的枕头和被子,客厅里的沙发和电视。:虽然你可能没有带最多的物品,但你把它们布置得非常合理,让人一眼就能看出每样东西的用途和关系。比如,所有的书都在书架上,所有的衣服都在衣柜里,让人一目了然。:你把所有物品堆在一起,然后找出最“重要”的部分(比如最重的、最贵的或者最常用的)。
2025-05-10 19:38:20
809
原创 Python训练营打卡 Day20
奇异值SVD分解奇异值分解这个理论,对于你未来无论是做图像处理、信号处理、特征提取、推荐系统等都非常重要,所以需要单独抽出来说一下这个思想。---甚至我在非常多文章中都看到单独用它来做特征提取(伪造的很高大上),学会这个思想并不复杂没学过线代的不必在意,推导可以不掌握,关注输入输出即可。今天这期有点类似于帮助大家形成闭环---考研数学不是白考的知识点回顾:线性代数概念回顾(可不掌握)奇异值推导(可不掌握)奇异值的应用特征降维:对高维数据减小计算量、可视化。
2025-05-09 20:18:05
1087
原创 Python训练营打卡 Day18
参考示例代码对心脏病数据集采取类似操作,并且评估特征工程后模型效果有无提升。推断簇含义的2个思路:先选特征和后选特征。科研逻辑闭环:通过精度判断特征工程价值。通过可视化图形借助ai定义簇的含义。聚类后的分析:推断簇的类型。
2025-05-07 22:28:42
210
原创 Python训练营打卡 Day17
实际在论文中聚类的策略不一定是针对所有特征,可以针对其中几个可以解释的特征进行聚类,得到聚类后的类别,这样后续进行解释也更加符合逻辑。DBSCAN 的参数是 eps 和min_samples,选完他们出现k和评估指标。除了经典的评估指标,还需要关注聚类出来每个簇对应的样本个数,避免太少没有意义。聚类常见算法:kmeans聚类、dbscan聚类、层次聚类。KMeans 和层次聚类的参数是K值,选完k指标就确定。以及层次聚类的 linkage准则等都需要仔细调优。选择合适的算法,根据评估指标调参( )
2025-05-06 21:56:47
210
原创 Python训练营打卡 Day16
例如,你有一个预测房价的模型,模型会根据房屋的面积、卧室数量、位置等特征来预测房价。SHAP 值有正有负,正的 SHAP 值表示该特征增加了模型的预测值,负的 SHAP 值表示该特征降低了模型的预测值。通过计算和分析 SHAP 值,你可以更好地理解模型是如何做出预测的,哪些特征对预测结果影响较大,从而提高模型的可解释性。简单来说,SHAP 值就像是一个 “功劳簿”,记录了每个特征在模型预测中所起到的作用。简单理解,就像把单独的数字或数字组规整的放进一个容器里,一维数组就是一列数字,二维数组就像是一个表格。
2025-05-05 20:20:45
328
原创 Python训练营打卡 Day14
尝试确定一下shap各个绘图函数对于每一个参数的尺寸要求,如shap.force_plot力图中的数据需要满足什么形状?确定分类问题和回归问题的数据如何才能满足尺寸,分类采取信贷数据集,回归采取单车数据集。今日作业偏思考类型,有一定难度。
2025-05-03 22:20:40
199
原创 Python训练营打卡 Day13
从示例代码可以看到 效果没有变好,所以很多步骤都是理想是好的,但是现实并不一定可以变好。这个实验仍然有改进空间,如下。1. 我还没做smote+过采样+修改权重的组合策略,有可能一起做会变好。针对上面这2个探索路径,继续尝试下去,看看是否符合猜测。2. 我还没有调参,有可能调参后再取上述策略可能会变好。不平衡数据集的处理策略:过采样、修改权重、修改阈值。
2025-05-02 22:00:15
241
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅