自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

人工智能中的一枚螺丝钉

平时分享一些人工智能通用的知识,希望各位业界的大佬可以不吝赐教。

  • 博客(19)
  • 收藏
  • 关注

原创 快速认识图像生成算法:VAE、GAN 和 Diffusion Models

特征变分自编码器 (VAE)生成对抗网络 (GAN)扩散模型 (Diffusion)核心机制概率建模 (ELBO)极小极大博弈 (对抗)迭代去噪 (马尔可夫链)模型数量1个 (AE 结构)2个 (G 和 D)1个 (噪声预测器 U-Net)生成质量一般 (细节模糊)优 (细节锐利)最优 (目前 SOTA)训练稳定性高(易于收敛)低 (模式崩溃,难收敛)高(均方误差稳定)潜在空间结构化,可解释非结构化 (不易直接操作 $z$)结构化 (每个 $x_t$ 都是一个潜在表示)生成速度。

2025-12-03 16:28:17 901

原创 跨模态预训练大模型【CLIP】:Contrastive Language–Image Pre-training

CLIP (Contrastive Language–Image Pre-training) 是由 OpenAI 于 2021 年推出的一种**跨模态(Cross-Modal)**预训练模型,它的出现极大地改变了计算机视觉和自然语言处理的结合方式,并成为了后来所有优秀文生图模型(如 DALL-E 2、Stable Diffusion)的基础。

2025-12-03 16:26:10 882

原创 多模态大模型【BLIP and BLIP2】:统一视觉自然语言理解和生成任务的多模态通用预训练模型框架

(1)图像编码器 和 文本编码器 的对齐单模态编码器:通过图像文本对比 ITC(image-text contrastive)的损失来对齐视觉和语言的表示结果(2)基于图片的文本编码器图像文本匹配 ITM(image-text matching):区分 正负图片文本对(3)基于图像的文本解码器语言模型 LM(language modeling):生成给定图像的说明文本。

2025-11-25 17:01:39 426

原创 大模型【论文解读】Improving alignment of dialogue agents via targeted human judgments通过有针对性的人工判断来提高对话代理的一致

从有益、正确和无害的对话的高级目标开始,我们将每个目标划分为更详细的规则,如表 1 所示,用于基于规则的对抗性探测和规则条件分类。帮助规则包括回答用户问题、紧扣主题和避免常见问题(如重复),并在第 2.3 节中与总体每轮响应首选项相结合。正确性规则涵盖评分者可能不会以其他方式惩罚的错误陈述类型,例如代理人声称拥有身体或采取现实世界的行动,并与第 2.4 节中针对特定证据的奖励相结合。我们的基线模型经常违反 helpness 和 correctness 规则。

2025-11-25 14:19:02 50

原创 大模型【进阶】(六)QWen2.5-VL视觉语言模型详细解读

texts input id:相同的 position IDs,eg. [(4,4,4)]...平衡长视频处理效率:每个视频的token总数限制为16384。一致性:每个图像 视为 两个相同的帧。视频采样:两帧/second,训练方案:图像和视频混合数据。卷积:深度为2的3D卷积。

2025-10-17 15:30:07 1368

原创 大模型【进阶】(五):低秩适配矩阵LORA的深度认识

现在开源的预训练大语言模型有很多,其预训练任务也在不断的探索中出现了多种方式,但是预训练大语言模型和下游任务之间依然还是有差距(gap),所以在我们使用预训练模型来做任务的时候要么让下游任务的数据格式遵循预训练数据的格式,要么对预训练模型做微调--让模型适配下游任务。在考量对预训练模型做微调的时候,最暴力的方式就是用人工重新标注后的高质量数据对模型直接开始训练(全量微调),也就是让模型在已经学习到通用知识的情况下在我给的领域数据做深入学习,这个方式带来的最大的问题就是和。

2025-07-26 16:21:28 1253 2

原创 大模型【进阶】(四)QWen模型架构的解读

Qwen 系列基于Transformer 架构,主要采用解码器-only(Decoder-only)的因果语言模型(Causal Language Model, CLM)设计,专注于自回归任务(如下一词预测)。密集(Dense)模型和专家混合(Mixture-of-Experts, MoE)模型,以下分别介绍。

2025-07-23 21:38:09 2561 2

原创 大模型【进阶】(三)GLM 架构模型的解读

GLM 对架构进行了几处修改:(1) Deep Norm:重新排列了层归一化和残差连接的顺序,规范化 -》子层 -》(有缩放因子的)残差链接;(2) 使用单个线性层进行输出 token 预测;(3) 激活函数:用 GeLUs 替换 ReLU 激活函数。

2025-07-23 15:40:13 771

原创 【知识图谱】:【Joint方法】中对CasRel算法模型的理解

CASREL是一种高效、强大的关系抽取模型,通过级联架构和BERT编码器,解决了传统方法在复杂关系抽取中的不足。其核心思想是将问题分解为主体识别和关系-客体抽取两个阶段,既保证了精度又提高了效率。如果需要更具体的代码实现、数据集分析或实验结果,可以进一步提供相关信息或通过搜索X平台和网络获取最新进展。

2025-07-07 12:31:09 1150

原创 Django ORM 快速入门指南 数据库!

直击数据库操作的常用方法!

2025-03-10 16:39:26 352

原创 快速入门Django

2.配置文件中 script parameters 位置,输入:runserver 0.0.0.0:8000 或者 runserver。(注意,自己是在哪个位置去创建的,如果manage.py在主目录下,你创建的在子目录下,需要修改:../manage.py)小技巧:每次运行manage.py文件都要输入命令,可以在pycharm右上角位置编译。windows电脑:win+r 打开 输入 cmd,打开命令窗口,输入。下次运行直接在脚本运行,不需要再打开命令窗口输入命令来运行了。在urls.py文件中。

2025-02-11 15:00:35 500

原创 大模型【进阶】(二)RLHF(Reinforcement Learning with Human Feedback 带有人类反馈的强化学习)

是(带有人类反馈的强化学习)的缩写。它是一种结合了强化学习(RL)和人类反馈的训练方法,广泛应用于人工智能(AI)系统的训练,尤其是在训练大型语言模型(如 GPT 系列、ChatGPT)时取得了显著成功。

2025-01-06 17:45:31 2570

原创 大模型【进阶】(一)MoE(mixture of experts)混合专家结构

(Mixture of Experts,专家混合模型)是一种深度学习模型架构,通常用于处理大规模模型和计算资源效率的挑战。在 MoE 结构中,模型由多个“专家”组成,每个专家处理不同的任务或输入数据的不同部分,而不是让所有专家都参与每次计算。这种方式提高了计算效率,并在某些情况下有助于增强模型的表现。

2025-01-04 10:12:23 3401

原创 大语言模型【基础】(三)什么是模型的预训练和微调?

指令微调(Instruction Fine-tuning)是一种重要的微调技术,旨在使预训练模型能够理解并执行用户输入的自然语言任务指令。通过这一技术,模型不仅能够执行传统的 NLP 任务,还能根据用户的指令灵活适应不同的任务需求,提升了模型的通用性和灵活性。指令微调在对话系统、文档分析、翻译、文本生成等多个领域具有广泛的应用前景,帮助人工智能系统更好地服务于复杂、多样的用户需求。

2025-01-03 10:10:36 965

原创 大语言模型【基础】(二)微调需要多少算力?

【再次强调,大模型占用显存的情况是多方面的因素综合下来得到的结果,上面所有的仅作为在选模型阶段对硬件需求的一个大体估量,在实际项目做出来的会有差异】:以上都是基本的估算,具体的情况还是要考虑其他要素:单卡训练、多卡训练、单节点训练、多节点训练、deepspeed等。估算的比例:1B的模型 ~ 2GB的模型参数 ~ 0.05GB的梯度 ~ 0.25GB的优化器+其他。估算的比例:1B的模型 ~ 2GB的模型参数 ~ 2GB的梯度 ~ 8GB的优化器+其他(共4倍)剩下的估算都差不多,可以自行推理。

2025-01-02 11:25:56 8731

原创 大语言模型【基础】(一)使用、训练、特点、分类和工作流程

可以直接向大模型提出需求,就能获得答复。这里涉及到怎么询问大模型,也就是提示词工程。

2025-01-01 10:30:00 757

原创 Pytorch中读取数据Dataset、Dataloader

拥有一堆源数据,这些数据是杂乱的、一眼看不出规律的、没有标注的,但是我们要用于模型训练的数据是需要有一定“结构的”,所以需要一个工具来让我们做数据的“打包、分类”工作。

2024-12-31 08:00:00 511

原创 Pytorch基础语法大全!

概念:一种python深度学习的框架,它将数据封装成张量(Tensor)来进行处理。Pytorch的张量:元素为同一种数据类型的多维矩阵。pytorch中张量以“类”的形式封装起来,张量的一些运算和处理的方法被封装在类中。

2024-12-30 10:14:35 378

原创 在Anaconda中安装Pytorch,Pytorch的基本使用方法

注意:没有nvidia显卡,torch.cuda.is_available() 返回False,是正确的。如果没有GPU,在Compute Platform选择CPU。dir()函数——知道工具箱以及工具箱中的分隔区有什么。设备管理器—》显示适配器—》找到GPU的型号。help()函数——知道每个工具的使用方法。在Pychram中打开 Python Console。根据自己电脑的CUDA型号进行选择适配版本。进入虚拟环境中输入下面命令。

2024-12-27 16:19:49 249

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除