自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(175)
  • 收藏
  • 关注

原创 Docker 镜像导出与导入:export/import vs save/load

和save/load。适用于制作基础镜像,而save/load适用于迁移包含多个镜像的应用。在选择使用哪种方式时,需要根据具体需求考虑文件大小、是否需要保留镜像历史等因素。希望本文对你有所帮助!如果还有其他问题,欢迎留言交流。原文链接Docker - 实现本地镜像的导出、导入(export、import、save、load)

2025-04-02 15:06:20 568

原创 freemarker 生成 DOCX文档

使用。

2025-03-31 17:50:29 390

原创 Prompt Flow 与 DSPy:大型语言模型开发的未来

Prompt Flow 和 DSPy 作为 LLM 应用开发领域的两大创新工具,正在重新定义开发流程和范式。Prompt Flow 通过模块化设计和自动化测试评估,为开发者提供了强大的支持;而 DSPy 则通过声明式编程和自动优化,进一步简化了开发过程。两者的结合不仅提高了开发效率,还扩展了应用的场景和可能性。对于 LLM 应用开发者来说,掌握 Prompt Flow 和 DSPy 将是迈向未来的重要一步。作为一名大模型算法工程师,我强烈推荐大家尝试这两个工具,并将其应用于实际项目中。

2025-03-30 14:10:17 589

原创 Kohya‘s GUI:让AI模型训练触手可及

Kohya’s GUI 作为一款面向未来的交互式模型训练工具,通过直观的图形界面和强大的功能,极大地降低了模型训练的门槛,让更多人能够参与到 AI 模型的开发和应用中来。它不仅支持多种微调方法,适应不同的任务需求,还提供了便捷的数据准备和训练监控工具,使得模型训练过程更加高效和可控。未来,随着人工智能技术的不断发展,Kohya’s GUI 有望在以下几个方面进行改进和拓展。首先,进一步优化界面设计,使其更加友好和易用,降低新手的学习曲线。

2025-03-26 09:14:19 563

原创 差参数优化:寻找机器学习的最佳配置

在机器学习中,超参数优化是一个至关重要的环节。超参数是指在模型训练之前需要手动设置的参数,它们直接影响模型的性能。选择合适的超参数可以让模型在数据上表现得更好,而选择不当则可能导致模型过拟合或欠拟合。本文将详细介绍几种常见的超参数优化方法,包括贝叶斯优化、粒子群优化、遗传算法、模拟退火、逐步筛选以及混合优化方法。

2025-03-25 15:46:26 922

原创 手动调参 vs 自动化:大语言模型微调的终极对决!

在大语言模型的发展进程中,微调技术始终占据着关键地位。通过微调,这些模型能够更好地适应特定任务和领域,从而显著提升其性能和实用性。然而,在实际操作中,许多团队如Qwen选择采用手动调参而非自动化调参工具,这一决策背后蕴含着多方面的考量。

2025-03-23 22:32:55 305

原创 FreeSWITCH:开源通信平台的全栈解决方案

FreeSWITCH 是一个开源的软交换平台,用于构建语音、视频和聊天等通信应用。它支持多种通信协议,如 SIP、H.323、WebRTC 等,并且具有跨平台的特性,可以在 Linux、Windows、MacOS 等多种操作系统上运行。FreeSWITCH 的设计目标是成为一个可伸缩的、模块化的通信平台,能够从简单的软电话客户端扩展到运营商级别的软交换设备。

2025-03-19 11:30:21 807

原创 GDAL、PostGIS、GeoTools和GeoServer:GIS领域的四大关键技术

在地理信息系统(GIS)领域,数据的处理、存储、分析和发布是核心环节。GDAL、PostGIS、GeoTools和GeoServer作为四大关键技术,各自承担着不同的角色,共同推动着GIS应用的发展。本文将深入探讨这四项技术的特点、功能及应用场景。

2025-03-18 20:30:56 788

原创 RAG数据嵌入和重排序:如何选择合适的模型

在自然语言处理(NLP)领域,Retrieval-Augmented Generation(RAG)模型已经成为一种强大的工具,用于结合检索和生成能力来处理复杂的语言任务。本文将探讨如何选择合适的模型来实现高效的数据嵌入和重排序,并结合MTEB Leaderboard上的最新进展,为读者提供实用的建议。DPR是一种专门为检索任务设计的嵌入模型,通过训练两个独立的编码器(查询编码器和文档编码器)来生成密集向量表示。在RAG模型中,数据嵌入和重排序是两个关键环节,它们直接影响模型的性能和效率。

2025-03-16 21:46:11 929 1

原创 深度学习模型压缩:非结构化剪枝与结构化剪枝的定义与对比

非结构化剪枝和结构化剪枝是深度学习模型压缩中的两种重要技术。结构化剪枝通过删除整个结构单元,保留模型的整体结构,更适合硬件加速,但可能需要更多的微调来恢复性能。与非结构化剪枝不同,结构化剪枝的目标是删除模型中的整个结构组件,而不是单个权重。换句话说,非结构化剪枝的目标是直接减少模型中的参数数量,而不改变模型的整体结构。例如,在需要保持高准确率的图像分类或自然语言处理任务中,非结构化剪枝可以有效减少模型的参数量,同时通过微调恢复性能。可以看到,剪枝后的矩阵中零值的分布是随机的,没有固定的模式。

2025-03-16 11:52:21 731

原创 知识蒸馏 vs RLHF:目标函数与收敛分析

知识蒸馏适合需要快速压缩模型并保留教师模型性能的场景,目标函数明确,收敛速度较快。RLHF更适合需要对齐模型行为、优化生成质量的场景,但收敛速度和效果高度依赖于人类反馈的质量。根据具体需求选择合适的方法,例如在资源有限的情况下优先使用知识蒸馏,而在需要优化生成质量时优先使用 RLHF。

2025-03-15 20:34:20 741

原创 三大强化学习框架大比拼:veRL、OpenRLHF与TRL的巅峰对决

以下是veRL、OpenRLHF与TRL三大GRPO实践框架的优劣对比与选择建议:

2025-03-15 20:27:00 745

原创 关于大型语言模型的结构修剪

其中,\(N_i\) 和 \(N_j\) 是模型中的两个神经元,\(\text{Out}(N_i)\) 表示指向 \(N_i\) 的神经元集合,\(\text{Deg}^-(N_j)\) 表示 \(N_j\) 的入度。如果 \(N_j\) 的入度为1且唯一依赖于 \(N_i\),则 \(N_j\) 依赖于 \(N_i\)。其中,\(\text{In}(N_j)\) 表示从 \(N_j\) 指向的神经元集合,\(\text{Deg}^+(N_i)\) 表示 \(N_i\) 的出度。

2025-03-02 22:39:04 390

原创 模型蒸馏 Knowledge Distillation

软标签损失是通过Kullback-Leibler(KL)散度来衡量学生模型的预测概率分布与教师模型的软标签之间的差异。温度参数 \( T \) 用于软化教师模型的输出概率分布,使学生模型能够学习到类别之间的关系,而不仅仅是硬标签。- **软标签损失**:通过KL散度衡量学生模型与教师模型的输出差异,帮助学生模型学习复杂的决策逻辑。- **总损失函数**:通过加权组合软标签损失和硬标签损失,平衡教师模型的知识传递和真实标签的监督。- **硬标签损失**:确保学生模型能够正确分类。

2025-03-02 11:00:58 406

原创 如何将模型长度扩展到100万:Llama 3的NTK-aware插值技术解析 小学生都懂的

通过 NTK-aware 插值调整 RoPE 的rope_theta参数,Llama 3 能够在扩展上下文长度到 100 万时,有效保留位置信息,同时处理高频和低频依赖。这种方法不仅解决了长序列处理中的信息丢失问题,还为模型在长文本生成和理解任务中提供了强大的支持。

2025-02-17 09:46:14 580

原创 如何使用 DeepSpeed-Chat 和自定义数据集训练类 ChatGPT 模型

DeepSpeed-Chat 的数据集需要符合特定的格式。在 DeepSpeed-Chat 的代码中,需要修改数据加载部分以加载你的数据文件。通过以上步骤,你可以将自己准备的数据集用于 DeepSpeed-Chat 的训练。如果你计划在第二步和第三步中使用数据集,建议使用包含两个回答(在该文件中添加一个新的类,定义你的数据集格式。函数中添加一个条件,以便加载你的数据集。)的数据集,以确保训练的稳定性和模型质量。将你的数据保存为 JSON 文件,例如。是被拒绝的、不好的回答。是被选择的、好的回答。

2025-02-16 12:49:58 631

原创 Agent如何驯服大模型:强化学习与逻辑判断的实践指南

Agent是一个决策系统,来源于强化学习,用于评估大模型的输出是否符合用户需求。大模型是一个深度学习模型,用于理解和生成数据特征。Agent与大模型的关系:Agent通过逻辑判断优化大模型的输出,而Agent的“训练”实际上是通过训练大模型来实现的。幻觉问题:Agent可以通过逻辑判断来减少幻觉现象,确保输出结果更符合用户需求。

2025-02-10 20:46:33 266

原创 Retrieval-Augmented Generation,检索增强生成流程

例如,对于用户查询“李白有哪些著名的作品?”大模型会融合检索到的李白作品的文档内容,生成类似“李白的著名作品有《将进酒》《静夜思》等”的回答。例如,向量库中有某个文档表示李白的著名作品,其向量与用户输入的向量相似度很高,系统就会返回这个文档。系统接收用户输入的查询问题或文本内容,例如“李白有哪些著名的作品?:在数据索引、检索前和检索后都进行了额外处理,通过更精细的数据清洗、设计文档结构和添加元数据等方法提升文本的一致性、准确性和检索效率。在聊天应用的界面中,用户会在屏幕上看到答案,例如李白著名作品的列表。

2025-02-07 22:00:15 318

原创 点击率估计中的FM与DeepFM算法:小学生也能懂的详细解释

假设我们有一个广告系统,它会根据用户的年龄、性别和兴趣来判断用户是否会点击广告。比如:如果用户是10岁的小朋友,点击率可能是10%。如果用户是男生,点击率可能是15%。如果用户喜欢看动画片,点击率可能是20%。但是,这些特征(年龄、性别、兴趣)之间可能有关系。比如,一个10岁的小男孩可能更喜欢看动画片,这样的组合可能会让点击率更高。FM算法就是用来捕捉这些特征之间的关系的。DeepFM是在FM的基础上增加了一个“深度神经网络”(DNN)。

2025-02-07 15:58:48 547

原创 Transformer Decoder 中的掩码多头自注意力机制:防止未来信息泄露的关键

掩码多头自注意力机制中的掩码主要用于防止模型在生成当前词时看到未来的词,确保生成过程的因果性。通过将未来位置的注意力权重设置为负无穷大,掩码确保模型只关注当前词及之前的词。此外,掩码还可以用于处理变长序列,屏蔽填充部分。

2025-02-06 12:43:49 644

原创 深度解析:4-bit权重反量化为FP32的原理与实现

将4-bit权重反量化为FP32的过程,本质上是将低精度的量化权重还原为高精度的浮点数格式。

2025-02-06 12:34:24 330

原创 轻松掌握机器学习:迁移学习的奥秘

迁移学习是一种非常有用的机器学习技术,它通过利用已有的知识来解决新任务,可以显著减少数据和计算资源的需求,同时提高模型的性能。通过选择合适的预训练模型、提取通用特征和微调模型,迁移学习在计算机视觉、自然语言处理等领域取得了巨大的成功。

2025-02-06 08:48:06 452

原创 CPU与GPU在矩阵运算中的对决与协同

在科学计算、工程、数据分析和机器学习等领域,矩阵运算是不可或缺的核心操作。随着计算需求的不断增长,选择合适的处理器成为了提升性能的关键。本文将深入探讨CPU(中央处理单元)和GPU(图形处理单元)在矩阵运算中的表现、差异以及如何协同工作。

2025-02-05 21:32:34 432

原创 探索 paraphrase-MiniLM-L6-v2 模型在自然语言处理中的应用

paraphrase-MiniLM-L6-v2 是一个强大的句子嵌入模型,它利用了 MiniLM 架构的轻量级特性,同时保持了较高的性能。这个模型特别适合于需要快速且准确文本表示的场景,如聚类和语义搜索任务。

2025-02-05 21:24:49 1116

原创 “深度强化学习揭秘:掌握DQN与PPO算法的精髓“

深度Q网络(Deep Q-Network,简称DQN)是一种结合了Q学习和深度神经网络的强化学习算法。它使用神经网络来近似Q值函数,从而实现对复杂状态空间中的动作选择。DQN的核心思想是通过贝尔曼方程(Bellman Equation)来更新Q值。

2025-02-03 18:16:10 501

原创 使用PyTorch Geometric进行图神经网络链接预测的示例代码

以下是一个使用PyTorch Geometric进行链接预测的简单代码示例。这个例子使用了图卷积网络(GCN)来学习节点表示,然后使用这些表示来预测可能存在的新链接。首先,确保你已经安装了torch和torch_geometric库。如果没有安装,可以使用以下命令安装:bash复制然后,你可以使用以下代码进行链接预测:Python复制def()

2025-02-02 19:56:06 419

原创 “LoRA技术中参数初始化策略:为何A参数采用正态分布而B参数初始化为0”

当B初始化为0时,新增的部分对原始权重的影响为零,从而不会破坏预训练模型的初始性能。综上所述,LoRA中参数A的正态分布初始化和参数B的零初始化是为了在保持预训练模型性能的同时,有效地引入新的参数进行微调,从而实现模型的高效适应新任务。:正态分布初始化的值一般较小,结合B初始化为零矩阵,可以在训练初期确保新增的偏置矩阵对原始预训练权重的影响为零,从而避免破坏预训练模型的初始性能。:正态分布的随机初始化为模型提供了足够的随机性,从而能够探索更广泛的参数空间,增加了模型找到最优解的可能性。

2025-01-31 15:42:20 317

原创 LOFTR:像“拼图高手”一样的图像匹配魔法(小学生版)

LOFTR =

2025-01-29 20:55:38 942

原创 给电脑“瘦身”的小魔法(小学生也能懂!)

模型剪枝 = 去掉“小透明”神经元 + 再训练,让电脑既聪明又轻快!就像修剪树枝,树反而长得更好~ 🚀。

2025-01-29 17:44:18 296

原创 马尔科夫模型和隐马尔科夫模型区别

我用一个和的比喻来解释,保证你秒懂!

2025-01-28 11:47:07 429

原创 使用 DeepSpeed 框架训练时如何配置 QLoRA

通过以上步骤,你可以在使用 DeepSpeed 框架时配置 QLoRA,实现高效的模型微调和训练。:确保你的硬件支持 DeepSpeed 和量化操作,例如支持 FP16 或 BF16。:根据实际需求调整 DeepSpeed 和 QLoRA 的配置参数。创建一个 DeepSpeed 配置文件(如。:选择适合量化的大语言模型。

2025-01-26 17:33:25 556

原创 傅里叶变换:把复杂东西变简单的魔法

傅里叶变换就像是一个神奇的魔法,可以把一些复杂的东西变得简单,让我们更容易看清楚里面藏着的秘密。不同的频率就像是不同的颜色,有的频率听起来声音尖尖的,就像小鸟叫;这些正弦波有的摆动快,有的摆动慢,它们组合在一起就变成了你听到的琴声。比如,你画了一幅画,这幅画可以用颜料的颜色和画笔的笔触来描述,这是在“画的世界”。但是,如果用相机把这幅画拍下来,照片上的画就可以用光的明暗和颜色来描述,这是在“照片的世界”。对于声音来说,我们平时听到的声音是在“时间的世界”,因为声音是随着时间在变化的。

2025-01-19 21:24:41 277

原创 傅里叶变换在语音识别中的关键作用

首先,傅里叶变换将语音信号转换到频域,然后通过滤波器组分析,将频域信号划分到不同的频带,这些频带的划分是基于人耳对频率的感知特性(梅尔频率尺度)。一般来说,语音信号的频率成分主要集中在较低的频率范围(通常在几十赫兹到几千赫兹之间),而一些环境噪声可能包含较高频率的成分或者在频率分布上与语音信号有明显差异。假设语音信号的频率主要集中在0-4kHz,而噪声在4kHz以上的频率成分较多,那么设计一个截止频率为4kHz的低通滤波器,就可以在频域中将语音信号和噪声分离,从而抑制噪声对语音识别的干扰。

2025-01-19 21:20:13 1466 1

原创 智能框架大比拼:LlamaIndex vs LangChain,谁将引领AI新潮流?

数据索引:LlamaIndex在快速组织和分类大量信息方面表现出色,而LangChain提供了模块化和可定制的数据索引方法,通过复杂的操作链整合多种工具和LLM调用。检索算法:LlamaIndex通过根据与查询的语义相似性对文档进行排名来优化数据检索,而LangChain将检索算法与LLM集成,生成具有上下文意识的输出。上下文保留。

2025-01-19 21:16:38 783

原创 “提升大语言模型推理与规划能力的策略:思维链提示与由少至多提示”

思维链提示(Chain-of-ThoughtPrompting)和由少至多提示(Least-to-MostPrompting)是两种提升大语言模型在推理和规划任务上表现的有效方法。

2025-01-18 15:19:25 658

原创 深入解析近端策略优化中的评论模型(Critic Model)

在近端策略优化(PPO)的框架中,评论模型(Critic Model)扮演着至关重要的角色。它不仅评估策略模型生成的回复,还为模型的训练提供实时反馈,指导模型选择对未来累积收益最大的行为。本文将详细介绍评论模型在PPO中的作用、实现方式以及它如何帮助优化策略模型。

2025-01-18 10:50:58 602

原创 广义优势估计(GAE):结合蒙特卡洛与时序差分的优势函数估计方法

广义优势估计 AGAE(γ,λ) 在高偏差(当 λ=0 时)和高方差(当 λ=1 时)的估计之间平滑地插值,有效地管理着这种权衡。因此,GAE被广泛地运用于策略梯度方法中,以提高学习过程的稳定性和效率。

2025-01-18 08:49:14 1066

原创 融合模仿学习与奖励优化:一种创新的模型训练范式

通过结合奖励模型损失和自回归语言模型损失,文献 [167] 提出的方法能够更好地训练模型,使其不仅能够准确预测奖励值,还能够在类似的输入上生成期望的输出。这种方法在实际应用中,通过调节系数 λ 和 βrm 的值,可以平衡奖励模型损失和语言模型损失的影响,从而优化模型的性能。

2025-01-17 16:23:33 888

原创 安装指南:LLaMA Factory、AutoGPTQ 和 vllm

在本文中,我们将详细介绍如何安装 LLaMA Factory、AutoGPTQ 和 vllm,这些工具在大型语言模型(LLMs)和视觉语言模型(VLMs)的微调和量化中非常有用。我们将逐步指导你完成整个安装过程,确保你能够顺利开始使用这些强大的工具。

2025-01-16 21:39:39 1313 1

原创 人工智能下的MASS服务架构

MaaS(Model as a Service,模型即服务)是一种新型的人工智能服务模式,通过将复杂的AI模型封装为标准化服务,降低了模型的开发和部署门槛,帮助企业快速实现业务场景的智能化升级。

2025-01-15 11:40:45 1805

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除