自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(71)
  • 收藏
  • 关注

原创 pytorch核心组件以及流程

分析表明,PyTorch的架构设计是一条清晰的路径:从具体的torch.Tensor(数据基础)到抽象的torch.nn.Module(模型构建),所有这一切都由一个强大且灵活的torch.autograd(动态引擎)驱动,并通过torch.utils.data(数据管道)获取燃料。PyTorch的命令式特性(也称为“Eager Mode”或“Define-by-Run”)允许图在运行时动态构建 2,这使其在研究中(需要处理复杂的、动态变化的模型)具有无与伦比的优势 3。然而,这种灵活性是有代价的。

2025-11-12 15:29:42 692 1

原创 langgragh的思想与入门(二)

定义工具:使用 Python 函数并辅以 @tool 装饰器来定义智能体可用的工具,例如 add 和 multiply。绑定模型:初始化一个支持工具调用的 LLM(例如 Claude Sonnet 4.5 或 OpenAI Gpt-4o),并将工具列表绑定(.bind_tools(tools))到模型上。这是关键一步。如前所述,状态需要使用 TypedDict 定义。# 应用核心重点:使用 Annotated 和 operator.add。

2025-11-11 20:00:41 912

原创 langgragh的思想与入门(一)

例如,一个智能体在调用工具后,可能需要根据工具的输出“反思”,然后决定 重新 调用另一个工具,或者 返回 到上一个思考步骤来修正其计划。工作原理:当一个节点(Node)完成计算的时候,它会发送一条消息(即状态更新)到图中的一个或者多个其他节点。LangGraph 的架构灵感来源于 Google 的 Pregel 系统 ,其核心是基于消息传递的图计算。这是初学者最容易犯错,也是最关键的知识点。这是构建真正“智能”的、具备 ReAct 风格(Reasoning and Acting)的智能体所必需的基础。

2025-11-11 19:25:04 854

原创 Google提示词白皮书总结(2)

LLM在各种NLP中取得了令人瞩目的成果,但是他们的推理能力被视为一个仅靠增加模型大小无法解决的问题,通过之前文章的COT技术可以提示模型生成像人类解决问题一样的推理步骤。推理与行动提示是一种范式,使LLM能够通过自然语言与外部工具结合来解决复杂任务,执行某种操作,这是卖相agent的第一步,ReAct 从根本上扩展了LLM 的能力,允许它们与外部世界(或特定工具)交互以收集信息或执行仅靠文本生成无法完成的操作。这种方法¹⁵ 不仅减轻了人工输入的需要,而且还提高了模型在各种任务中的性能 1。

2025-10-16 20:29:11 595

原创 Google提示词白皮书总结(1)

本文总结了Google提示词白皮书的核心内容,聚焦于LLM输出配置和提示技巧两大方面。在输出配置部分,关键参数包括输出长度控制和采样设置(温度、Top-K、Top-P),这些参数直接影响生成结果的确定性、创造性和能耗。提示技巧主要分为三类:样本示例类(零样本、单样本/少样本)、系统/上下文/角色提示(用于设定任务框架和细化响应),以及回退提示(通过普遍化问题激活相关知识)。这些技巧可单独或组合使用,帮助优化LLM的输出质量和任务适配性。

2025-10-16 18:56:31 750

原创 第二章 prompt思维链

将思维链提示过程进一步发展,首先将问题分解为子问题,然后逐个解决。你可以通过分解问题、推理假设、分析因素、总结归纳等方式,逐步帮助自己或他人理清复杂问题的思路。2.主要思想:通过向大语言模型展示一些少量的ex,在ex中解释推理过程,大模型在回答提示时也会显示推理过程。1.思维链CoT提示过程是一种最近开发的提示方法,鼓励大语言模型解释推理过程,对算术一些任务有所改进。3.引导假设以及推理:如果,那么,基于此,我们可以得出。1.明确问题与目标:问题是。2.分解步骤,逐层推进:首先,接下来,然后。

2025-10-04 18:55:37 436

原创 第一章——了解prompt以及一些基础技巧方法

Prompt的定义——用户向LLM输入的一段文本,用于指导LLM生成符合用户要求的输出。Prompt的本质——沟通的桥梁,决定LLM准确预测用户意图的能力。

2025-10-04 17:55:54 882

原创 AI论文阅读方法+arixiv

文件拖拽到AI,发送提示词:“请仔细阅读这篇论文,提取出其核心内容,包括研究目的、主要方法、关键结论和创新点。用简洁明了的语言总结出论文的核心概述,字数控制在300字以内。重点突出论文的研究重点和贡献,避免过多细节描述,确保内容精炼且准确反映论文主旨。在完成前面各部分的基础上,对整篇论文进行总结。总结内容包括论文的主要贡献、研究方法的创新点、实验结果的意义以及论文的不足之处和未来可能的研究方向。

2025-07-28 16:06:13 641

原创 Day 52 训练

在深度学习的实践中,超参数的调整往往决定了模型的最终性能。然而,与传统机器学习不同,深度学习模型的训练过程复杂且耗时,这使得我们无法像处理传统模型那样随意使用网格搜索、贝叶斯优化等方法。今天,我们就来深入探讨神经网络调参的实战指南,帮助你在有限的资源和时间内,高效地优化模型性能。在深度学习的探索之旅中,随着学习的深入,有些基础概念就像绕不开的十字路口,我们必须扎实掌握它们。这种情况下,反向传播时的梯度也完全相同,神经元无法学习到不同的特征,模型将失去表达能力。

2025-06-20 17:35:37 803

原创 Day 50 训练

通过在 ResNet18 中插入 CBAM 模块,并采用先冻结预训练层再训练其他层的策略,我们成功地优化了预训练模型的性能。实验表明,这种优化方式在 CIFAR-10 数据集上取得了较好的效果。在今后的研究中,我们还可以尝试在其他预训练模型中插入不同的注意力模块,并探索更多有效的预训练策略,以进一步提升模型的性能。以上内容仅供参考,你可以根据实际需求进行调整和补充,希望对你有所帮助!@浙大疏锦行。

2025-06-17 15:39:57 900

原创 Day 49 训练

今天我们就来深入探索CBAM(Convolutional Block Attention Module)注意力模块,它就像给卷积神经网络(CNN)装上了"智能眼镜",能让模型同时学会"关注什么"和"关注哪里"。它的核心目标是通过学习的方式,自动获取特征图在通道和空间维度上的重要性,进而对特征图进行自适应调整——增强重要特征,抑制不重要特征,从而提升模型的特征表达能力和性能。通道注意力模块的作用是分析"哪些通道的特征更关键"。空间注意力模块的作用是定位"关键特征在图像中的具体位置",例如物体所在区域。

2025-06-14 23:13:04 1100

原创 Day 48

A.shape[-1] == B.shape[-2],即 A 的列数等于 B 的行数。

2025-06-13 17:03:17 654

原创 Day 47 训练

在这里,我们用它来捕获目标卷积层(model.conv3)输出的特征图(activation_maps)。更高级的技术,如类激活映射(CAM)、梯度加权类激活映射(Grad-CAM)及其变种(Grad-CAM++, Score-CAM等),通过结合梯度信息来计算特征图的权重,通常能提供更精确、更与类别相关的注意力可视化。前向传播:执行outputs = model(images),这会正常计算模型的输出,并在经过model.conv3时触发我们注册的钩子,从而将特征图存入activation_maps。

2025-06-12 16:09:47 819

原创 DAY 46训练

在深度学习领域,注意力机制已成为一种关键的技术。它赋予模型“选择性关注重要信息”的能力,就像人类视觉会自动聚焦于图片主体而忽略背景。本文将深入探讨注意力机制的原理、特征图可视化以及通道注意力的实现与效果。深度学习的发展历程中,特征提取方法经历了从 onehot、elmo 到 self-attention 及 encoder-bert 等不同阶段。这些方法各有特点,从弱到强逐步发展。Transformer 中的自注意力机制是一种“自己学习自己”的方式,能自动聚焦于关键信息而忽略背景。数学上,它对输入特征进行加

2025-06-12 00:37:10 735

原创 DAY45 训练

在神经网络训练过程中,各种辅助组件如训练进度条、可视化 loss 曲线、权重分布图等能极大提升我们的理解与训练效果。而 TensorBoard 这一可视化工具,能够轻松整合这些功能,实现训练过程的实时监控与动态调整,下面将详细介绍其相关操作。TensorBoard 的核心在于将训练数据先记录到日志文件,再通过网页展示。安装命令为,但刚才尝试解析该链接时因网络问题未能成功,可能是链接合法性或网络状况导致,可检查链接后重试,若无需解析此链接,可继续阅读后续内容。以下是 TensorBoard 核心代码解析(无需

2025-06-10 19:41:23 881

原创 DAY 44 训练

从 1998 年 Yann LeCun 等人提出的 LeNet-5 验证 CNN 可行性,到 2012 年 AlexNet 引发深度学习复兴,再到 2015 年 ResNet 解决超深网络训练难题,预训练模型不断发展。后续模型如 DenseNet、MobileNet、EfficientNet 等在特征复用、计算效率、自动化设计等方面持续优化。LeNet-5:首个 CNN 架构,包含卷积层、池化层、全连接层,采用 Sigmoid 激活函数,主要用于手写数字识别(MNIST)。AlexNet。

2025-06-09 22:53:34 924

原创 DAY 43 训练

在当今数字化时代,图像分类任务作为计算机视觉领域的重要基石,正推动着诸多行业的智能化转型。本文将带您深入探索如何利用 PyTorch 框架高效实现猫狗二分类模型的构建与训练,并借助 Grad-CAM 技术直观可视化模型决策依据,助力您快速踏入深度学习实践领域。训练集经随机裁剪与水平翻转增强数据多样性,转化为张量后标准化;优质的数据预处理是模型成功的关键起点。精心反归一化还原图像,叠加热力图直观呈现关键区域,助力理解模型决策逻辑。多轮迭代训练,动态监测损失与准确率,逐步优化模型性能。

2025-06-08 17:22:41 450

原创 Day42 训练

摘要:Grad-CAM技术通过PyTorch的hook机制打开深度学习模型"黑盒",可视化CNN决策过程。该方法利用反向传播梯度信息生成类激活映射,直观显示图像关键区域。实现过程包括:1) 定义模块/张量hook监听中间层数据;2) 计算特征图梯度权重;3) 生成热力图并叠加原图。该技术可应用于模型调试、决策解释和数据评估,在医疗影像等高价值领域尤为重要。研究表明,Grad-CAM结合hook函数能有效提升模型可解释性,为深度学习研究提供关键分析工具。(150字)

2025-06-07 16:59:01 673

原创 Day 41 训练

Python复制#====================== 2. CNN模型定义 ======================# 第一个卷积块# 第二个卷积块# 第三个卷积块# 全连接层# 保存特征图用于可视化# 第一个卷积块# 第二个卷积块# 第三个卷积块# 全连接层我定义了一个简单的 CNN 模型SimpleNet,它包含三个卷积块,每个卷积块后都跟着 Batch Normalization 层、ReLU 激活函数和最大池化层。最后是全连接层用于分类。

2025-06-06 18:53:50 332

原创 Day 40训练

self.flatten = nn.Flatten() # 将 28x28 图像展平为 784 维向量return x数据处理规范化:利用DataLoader和Dataset对数据进行分批次处理,提高数据加载效率。模型结构清晰化:明确展平操作在图像任务中的应用,彩色图像需考虑通道维度。训练测试函数封装:将训练和测试逻辑封装为函数,便于参数调整与复用,为多模型对比奠定基础。迭代损失记录:记录每个迭代的损失,绘制损失曲线辅助训练过程分析。

2025-06-05 19:50:59 954

原创 Day39 训练

图像数据处理是深度学习的一个重要分支,从理解数据结构到构建神经网络模型,再到优化显存管理,每一步都充满了技巧和智慧。希望这篇博客能为大家在图像处理的道路上提供帮助,让大家的模型在显存的舞台上绽放光彩。未来,我们将继续探索更高效的模型结构和优化策略,共同揭开深度学习的更多奥秘。@浙大疏锦行。

2025-06-04 17:23:19 721

原创 Day38 训练

Dataset类是PyTorch中所有数据集的基类。数据存储路径/来源:如文件路径、数据库查询等原始数据的读取方式:如图像解码为PIL对象、文本读取为字符串等样本的预处理逻辑:如裁剪、翻转、归一化等,通常通过transform参数实现返回值格式:如Dataset__len__():返回数据集的样本总数:根据索引返回对应样本的数据和标签DataLoader类负责将数据集切分为多个批次(batch),并支持多线程加载数据。批量大小(batch_size)

2025-06-03 15:52:57 508

原创 Day 37 训练

通过本文的实例,我们详细介绍了如何在 PyTorch 中进行模型训练、保存与加载,以及如何应用早停法来防止过拟合。这些技术在实际的深度学习项目中具有广泛的应用价值。掌握这些技能,将有助于您更好地构建和优化深度学习模型。浙大疏锦行。

2025-06-02 17:30:10 687

原创 Day 36训练

本项目的目标是利用给定的数据集,训练一个神经网络模型,以预测个人是否会发生信用违约。数据集包含多种特征,如年度收入、信用评分、当前贷款金额等,以及目标变量“Credit Default”(信用违约)。我选择了二元交叉熵损失函数(BCEWithLogitsLoss)和Adam优化器。

2025-06-01 17:57:21 489

原创 Day 35 训练

self.fc1 = nn.Linear(4, 10) # 输入层到隐藏层self.fc2 = nn.Linear(10, 3) # 隐藏层到输出层return out# 实例化模型并移至GPU定义了一个简单的多层感知机(MLP)模型,包含一个输入层、一个隐藏层和一个输出层。输入层接收 4 个特征维度的数据,隐藏层有 10 个神经元并使用 ReLU 激活函数,输出层有 3 个神经元,用于对应鸢尾花的 3 个类别。通过将模型放置在指定设备上。

2025-06-01 00:27:35 656

原创 Day 34 训练

定义__call__是 Python 中的一个特殊魔术方法,当一个类的实例被像函数一样调用时,会触发该方法。它允许类的实例表现得像函数一样,同时还能保留对象的内部状态。示例不带参数的__call__方法:定义了一个Counter类,在其__call__方法中,每次调用实例时,内部的count属性会加 1 并返回当前值。通过counter()的方式调用实例,可以实现计数功能,且每次调用都会更新内部状态。带参数的__call__方法:定义了一个Adder类,在其__call__方法中,接受两个参数a和b。

2025-05-30 22:24:27 850

原创 Day 33 训练

定义一个简单的全连接神经网络模型,包含一个输入层(4 个神经元,对应 4 个特征)、一个隐藏层(10 个神经元)和一个输出层(3 个神经元,对应 3 个分类)。class MLP(nn.Module): # 定义一个多层感知机(MLP)模型,继承父类nn.Moduledef __init__(self): # 初始化函数super(MLP, self).__init__() # 调用父类的初始化函数self.fc1 = nn.Linear(4, 10) # 输入层到隐藏层。

2025-05-29 15:20:31 1085

原创 Day32 训练

通过今天的实践,我们学习了如何利用 PDPbox 库来解读机器学习模型的预测逻辑。理解官方文档的结构:找到“API Reference”或“Documentation”部分,查看函数和类的详细说明。掌握类和方法的用法:关注类的传入参数格式和方法的返回值。利用绘图工具进行个性化设置:了解底层绘图包(如 Plotly)的语法,以便对图表进行进一步的定制。

2025-05-27 18:10:26 829

原创 Day 31 训练

掌握项目模块化的技巧,是提升开发效率和代码质量的重要一步。通过合理的文件组织和模块划分,我们不仅可以使项目结构更加清晰,还能提高代码的可维护性和复用性。在实际开发中,灵活运用、编码格式和类型注解等技巧,将使我们的项目更加健壮和专业。

2025-05-25 22:34:00 352

原创 Day 30 训练

除了官方库,我们还可以导入自己创建的库或模块。

2025-05-24 15:13:59 629

原创 Day 29 训练

print("这是类内部定义的方法")这种方式简单直观,是定义类方法的常规方式。方法可以直接访问类的其他成员,包括私有成员。print("这是外部定义的方法")passMyClass.external_method = external_method # 动态添加方法这种方式允许我们在类定义完成后再动态添加方法,常用于装饰器、元类和动态编程场景。需要注意的是,外部定义的方法需要通过self或类名显式访问类的其他成员。装饰器的本质是语法糖。对于类装饰器而言,@decorator语法实际上是的简写。

2025-05-23 19:33:07 839

原创 Day 28 训练

在学习 Python 的过程中,类是一个重要的概念。今天,我们来深入探讨一下类的定义与继承。现在,我们来学习如何自己定义一个类,这将帮助我们对类这一概念有更深刻的理解。关键字 class:用于声明一个类。类名:通常遵循大驼峰命名法(UpperCamelCase),即每个单词的首字母都大写。:在类名后面加上冒号表示类的开始。初始化函数init(self):用于初始化类的实例,注意 init 左右各有两个下划线,需要传入 self 这个特殊的参数,它指向类的实例化地址。

2025-05-22 19:21:51 866

原创 Day 27 训练

掌握装饰器技巧,可以显著提升代码的复用性和可维护性。建议读者尝试实现一个支持超时中断的装饰器,这将涉及信号处理和多线程技术,是很好的进阶练习。原因:Python语法规定所有位置参数必须出现在关键字参数之前。

2025-05-21 16:20:12 580

原创 DAY 26 训练

●任务: 编写一个名为 describe_shape 的函数,该函数接收图形的名称 shape_name (必需),一个可选的 color (默认 “black”),以及任意数量的描述该图形尺寸的关键字参数 (例如 radius=5 对于圆,length=10, width=4 对于矩形)。●任务: 编写一个名为 print_user_info 的函数,该函数接收一个必需的参数 user_id,以及任意数量的额外用户信息(作为关键字参数)。3.函数的参数类型:位置参数、默认参数、不定参数。

2025-05-20 16:45:08 577

原创 Day 25 训练

Python 的异常处理机制赋予了程序强大的容错能力。当程序运行时遭遇意外情况(即异常),它不会直接崩溃,而是可以按照设计优雅地处理这些错误,甚至继续执行后续逻辑或以可控方式结束。当异常发生时,Python 会创建一个异常对象(通常是 Exception 类的子类实例)。如果异常代码位于 try 语句块中,程序会寻找并跳转到匹配的 except 语句块来处理异常。

2025-05-19 16:17:09 1001

原创 Day 24 训练

元组是一种有序且不可变的数据结构,与列表类似,但它不能被修改。这种特性使得元组在需要固定数据结构的场景中非常有用,例如在深度学习中,模型的参数和形状一旦定义,就不应该被随意修改。在 Python 编程中,元组和 OS 模块是两个非常重要的概念。元组作为一种不可变的数据结构,广泛应用于各种场景,尤其是在深度学习中。可迭代对象是 Python 中一个非常核心的概念,它指的是那些能够一次返回其成员的对象,可以在循环中遍历它们。中,每个步骤被定义为一个元组,包含步骤的名称和处理对象。函数获取元组的长度。

2025-05-18 18:40:03 579

原创 产品经理入门(2)产品体验报告

按照产品方向分析各个指标——包括有效使用时间,市场规模等。3. 用户分析——对用户通过各项指标画像。4.产品体验——对各项功能与设计的体验。可以从各大平台搜产品介绍。重点在产品体验——优点。

2025-05-17 20:14:35 279

原创 DAY 23 训练

)])])],print("\nColumnTransformer (预处理器) 定义完成。")通过使用 pipeline,我们可以将整个机器学习工作流程封装成一个简洁的流程,提高代码的可读性和可维护性。同时,pipeline 还可以帮助我们防止数据泄露,简化超参数调优,提高模型的性能和稳定性。在实际项目中,我们可以使用 pipeline 来构建复杂的机器学习工作流,提高我们的工作效率。希望今天的分享能够帮助大家更好地理解和使用机器学习管道。@浙大疏锦行。

2025-05-17 17:36:37 712

原创 产品经理入门——认识产品经理

2.能力素养:沟通能力,学习能力,提炼能力,用户洞察,IQ/EQ/AQ,抗压能力。1.专业技术:业务分析,需求挖掘,需求分析,产品规划,产品设计,数据分析。3.加分项:行业领悟,商业思维,市场能力,领导力,项目管理。大多为功能型产品经理。

2025-05-16 20:55:33 330

原创 Day 22 训练

泰坦尼克号沉船事件是历史上著名的海难事故。通过对乘客信息(如年龄、性别、船票等级等)进行分析,我们可以构建机器学习模型预测乘客的生存概率。这不仅是一个经典的机器学习案例,还能帮助我们理解不同因素对生存率的影响。

2025-05-16 18:34:40 699

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除