自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 收藏
  • 关注

原创 【谈谈AI基本功】极大似然法

在深度学习中,我们经常有一堆训练数据(比如图片和标签),并假设这些数据是由某个带参数的模型(比如神经网络)生成的。但你不知道这两种口味的比例是多少——可能是90%草莓+10%柠檬,也可能是50%-50%,或者其他比例。通过计算(或直觉),你会发现:当 p=0.8 时,出现“4 草莓 1 柠檬”的可能性最大。MLE 的目标就是:调整这些参数,使得模型认为“我们看到的训练数据”是最可能出现的。在所有可能的参数值中,找出那个“最有可能”产生我们实际观察到的数据的那个参数。这个 0.8 就是“极大似然估计值”。

2026-01-09 16:08:52 64

原创 【谈谈AI基本功】带参数的注意力汇聚与不带参数的注意力汇聚

一句话核心区别。

2026-01-09 10:07:03 181

原创 【谈谈AI基本功】backbone、neck、head

视觉模型的核心架构可统一为 Backbone-Neck-Head三段式结构,各部分分工明确且紧密协作:

2026-01-01 17:28:04 144

原创 【谈谈AI基本功】Checkpoint

Checkpoint 是模型的“快照”,加载别人的 checkpoint = 站在巨人肩膀上快速成功。

2025-12-29 11:08:07 192

原创 【谈谈AI基本功】机器学习四大学习范式:监督学习、非监督学习、半监督学习、强化学习

2025-12-23 11:27:11 94

原创 【谈谈AI基本功】全连接层、隐藏层、输出层、激活函数、损失函数、反向传播

没有激活函数 → 多层网络退化为单层线性模型。更新参数,使模型越来越准。

2025-12-22 15:23:27 213

原创 【谈谈AI基本功】交叉熵损失函数和均方误差损失函数

MSE交叉熵任务类型回归分类输出要求实数值概率(0~1,和为1)对错误的敏感度平滑,对大误差惩罚更强对低置信度错误惩罚更强回归用 MSE,分类用交叉熵。

2025-12-22 11:52:18 238

原创 【AI项目急救手册】with read_base()继承基础配置用法

这段代码中的 with read_base: 并非标准 Python 用法,而是 OpenMMLab 配置系统(如 MMEngine)特有的 DSL 语法。其核心作用是:告知配置加载器,块内的 import 用于继承基础配置,而非定义当前作用域的变量。🧠 为什么需要这个?

2025-12-11 14:17:44 114

原创 【AI项目急救手册】装饰器:@MODELS.register_module()

开发者定义各种模块(如 Backbone、Neck、Head 等)。这些模块通过装饰器注册到一个全局的注册表中。训练/推理时,系统根据配置文件中的字符串名称(如 ‘ResNet’)自动查找并实例化对应的类。

2025-12-11 11:57:41 249

原创 【谈谈AI基本功】前向传播 vs 后向传播:神经网络的“做题”与“改错”

前向传播”和“后向传播”其实就像人脑的做题和改错过程。

2025-12-10 11:49:46 150

原创 【谈谈AI基本功】量化——深度学习模型瘦身术

后量化是快餐,前量化是私房菜 根据你的需求、时间和资源,选择合适的“瘦身”方案。

2025-12-10 10:57:23 206

原创 【谈谈AI基本功】自注意力计算

用 3×3 灰度图像 的例子来演示图像中的自注意力计算,使用具体数值。3×3 图像自注意力数值示例原始图像[10 20 3040 50 6070 80 90 ]我们将每个像素视为一个“词”,需要添加位置信息。这里我们使用简单的行、列位置编码:位置编码维度 = 2(x坐标和y坐标)像素值归一化到 [0,1] 以便计算第一步:创建特征向量每个像素的特征向量 = [像素值, x坐标, y坐标]设坐标原点在左上角:像素 (0,0): [10, 0, 0]

2025-12-09 10:16:57 710

原创 【谈谈AI基本功】Softmax

它通常用在多分类神经网络的最后一层,把模型输出的分数变成每个类别的概率,从而选出最可能的一个。例如,在图像分类中,输入一张猫的图片,模型输出可能是 [猫:5.0, 狗:1.2, 鸟:-1.0],经过 Softmax 后变成类似 [0.96, 0.04, 0.00] 的概率,我们就知道模型有 96% 的把握认为这是猫。一句话总结:Softmax 是一个“多选一”的概率转换器,它将任意一组数字变成总和为1的概率,用于确定最可能的类别。放大:让大的数字相对更大,小的更小(突出差距)。压缩:把所有数字都变成正数。

2025-12-08 20:44:36 317

原创 【谈谈AI基本功】多头注意力

一句话总结:多头注意力让 AI 学会了“眼观六路、耳听八方”,一次性从多个维度理解信息。多头注意力 = 让 AI 同时用多个“专业视角”分析同一段信息,然后合并所有视角的结果。更聪明:不同头会自发学习不同的关注模式(比如有的关注语法,有的关注语义)壁画非常复杂,但你只有一支小手电筒(传统的注意力机制)。要看懂整幅画,你得慢慢移动手电筒,看完这里再看那里。每支手电筒都从自己专业的角度同时观察整幅画。想象你在一个黑暗的房间里看一幅巨大的壁画。以上内容维deepseek生成修改。他们在做什么(绿色手电的信息)

2025-12-08 15:47:22 178

原创 【AI项目急救手册】Python语法速效丸

这是 Python 中用于定义生成器函数的关键字。与 return 不同,yield 在每次调用生成器时返回一个值,并暂停函数执行,下次调用时从上次暂停的位置继续。这样可以节省内存,特别适合处理大型数据集。

2025-12-05 10:17:17 78

原创 【谈谈AI基本功】模型超参数与参数

参数:模型从数据中学到的知识,即其“记忆”。训练后固定即权重,用于预测。通过梯度下降反向传播更新。超参数:我们在训练前手动设定的“控制旋钮”,决定模型如何学习、长什么样。不参与梯度下降,训练前固定或按计划调整。

2025-12-04 15:13:52 756

原创 【Pytorch修行笔记】Torchrun让PyTorch分布式训练变得像单卡一样简单

为什么我们需要分布式训练?当深度学习模型参数达到数十亿、数据集包含数百万样本时,单张GPU的训练时间可能长达数周。分布式训练允许我们将计算任务分摊到多张GPU甚至多台机器上,将训练时间从周缩短到天,甚至小时。然而,分布式训练的传统实现复杂得令人望而却步——需要手动管理多个进程、设置复杂的通信环境、处理同步和容错。直到torchrun的出现,这一切发生了根本改变。Torchrun的优雅设计核心理念:抽象化复杂性torchrun的设计哲学是"用户只需关心训练逻辑,分布式细节由框架处理"。

2025-12-03 16:14:29 728

原创 【谈谈AI基本功】注意力机制

一句话定义:注意力机制是让神经网络学会动态分配计算资源到输入数据中最相关的部分,模仿人类的认知聚焦能力。循环神经网络(RNN):像一条流水线,必须按顺序处理单词,且容易遗忘开头的内容。交叉注意力:在两个不同序列间建立关注(如翻译中的源语言和目标语言)值(Value):书中的具体内容(根据匹配程度决定参考多少)生成注意力权重:相关性高的分配高权重(类似“这本书更相关”)查询(Query):你的问题(比如“注意力机制是什么?键(Key):每本书的标题/目录(与查询匹配的程度不同)

2025-12-03 10:35:45 348

原创 【谈谈AI基本功】One-Stage(单阶段) 和 Two-Stage(两阶段) 目标检测方法

作为深度学习专家,我来为你由浅入深地解释 One-Stage(单阶段) 和 Two-Stage(两阶段) 目标检测方法。Two-Stage方法:先找出所有可能是香肠的区域(第一阶段),然后对每个区域仔细判断“这真的是香肠吗?One-Stage方法:一眼看过去,直接指着图片说:“这里有一片香肠,那里也有一片”,一步到位。代表模型: R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN。再学习Two-Stage:理解R-CNN系列,掌握传统思路。

2025-12-02 17:55:33 291

原创 OpenCV+VS 环境配置(以OpenCV4.7.0+VS2022环境配置为例)

下面以4.7.0版本的OpenCV与VS2022的环境配置为例进行介绍,其他版本的OpenCV与VS的环境配置也可参考本流程。

2023-05-07 23:19:11 4138 1

原创 5.14.2 Qt+VS 2017 环境配置

Qt 是一个跨平台的 c++ 图形界面应用程序框架。

2022-03-31 23:15:35 4294

原创 3D-DIC开源代码整理

由于最近在做DIC相关的项目,搜集了各种资源,发现目前开源的关于3D DIC的代码还是比较少的,对此做了以下整理:1.DICehttps://github.com/dicengine/dice2.MultiDIChttps://github.com/MultiDIC/MultiDIC3.OpenCorrhttps://github.com/vincentjzy/OpenCorr后续有空将会整理一些关于DIC原理方面的内容,欢迎关注我呀~...

2021-11-15 09:41:20 2924 10

原创 用递归函数或使用堆栈生成排列组合数

#include using namespace std;#define MAXN 10 /* 栈的最大容量 // 定义栈的类型为int /typedef int ElemType;typedef struct{ElemType data[MAXN];int top;}SqStack;void InitStack(SqStack &st)//初始化栈{st.to...

2019-08-31 20:12:19 1123

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除