- 博客(53)
- 收藏
- 关注
原创 RAG(检索增强生成)流程简略介绍
摘要: RAG(检索增强生成)通过“先检索后生成”的方式解决大语言模型处理长文本的痛点。其流程分为准备阶段(文档分片、向量化、存储)和回答阶段(召回、重排、生成)。核心技术包括向量相似度计算(余弦相似度等)、分片策略、Embedding模型选择和重排算法优化。RAG不仅能提升回答准确性、减少模型幻觉,还能实现知识实时更新并降低计算成本。该技术通过精准检索相关片段,使模型仅基于有效上下文生成回答,显著提升效率与效果。
2025-12-23 11:16:04
405
原创 GLM-LanceDB 本地化 RAG 问答工具demo
本文介绍了一个基于LangChain框架的本地RAG问答系统,通过整合智谱GLM大模型、Embedding模型和LanceDB向量数据库,解决了大语言模型知识时效性不足的问题。系统从本地文本文件中提取信息,经过文本分割、向量化存储后,通过向量检索匹配用户问题,最终由GLM模型基于检索结果生成回答。核心流程包括数据预处理、向量存储、检索匹配和生成回答四个步骤,实现了私有数据的高效利用和精准问答。系统采用轻量级本地向量数据库,适合快速验证RAG原型。
2025-12-22 19:58:42
389
原创 RAG 文本数据切割技术
摘要: RAG系统中的文本数据切割是预处理阶段的关键环节,旨在将长文本分解为更小片段以优化检索和生成效果。其作用包括提升检索效率、增强匹配精度、优化上下文利用和保留语义完整性。主要切割方法包括:1)通用递归字符切割,基于标点符号快速分割;2)基于语义的智能切割,利用嵌入模型识别语义断点;3)基于标题结构的切割,适用于HTML等结构化文档。不同方法各具特点,需根据文本特性和系统需求选择,直接影响RAG系统的整体性能。
2025-12-22 18:52:49
565
原创 RAG 数据集加载:不同格式文件的处理方法
RAG(检索增强生成)技术通过结合信息检索与生成式AI,从外部知识库获取相关信息生成准确回答,解决大语言模型的局限性。数据加载作为RAG流程的第一步,直接影响系统效果。本文详细介绍了五种常见文件格式(Markdown、CSV、HTML、PDF、JSON)的加载方法,包括对应的加载器特点和使用场景。数据加载后的核心工作包括文档分割、嵌入向量生成、向量存储及检索生成。不同格式需选择适配的加载器,确保为后续步骤提供干净、结构化的原始素材,这是构建高效RAG系统的基础。
2025-12-22 17:32:27
205
原创 ChatGLM-整合数据库
该代码实现了一个基于GLM-4大语言模型的中文自然语言转SQL问答系统。系统通过配置MySQL连接和GLM-4模型参数,实现"自然语言提问→生成SQL→执行查询→生成回答"的全流程。核心功能包括:自动获取表结构生成符合规范的SQL语句,执行SQL查询并将结果整合生成中文回答。关键组件包括SQL格式清洗函数、SQL生成链、数据库连接工具和回答生成链。系统支持多种查询场景,如聚合查询和条件查询,最终返回通俗易懂的中文答案。
2025-12-10 16:49:44
298
原创 BertTokenizer 使用小细节
本文介绍了如何使用Hugging Face Transformers库中的BertTokenizer处理中文文本,包括单句和文本对的分词与编码。主要内容包括:1)通过tokenize()实现字级别分词;2)使用encode()生成包含特殊标记的ID序列;3)利用encode_plus()获取完整的模型输入格式(input_ids、token_type_ids和attention_mask);4)演示解码过程。文中提供了完整代码示例,展示了从原始文本到模型输入的完整处理流程,特别说明了中文分字、特殊标记处理以
2025-11-28 12:09:49
668
原创 Bert 的 Embedding层
本文演示了BERT模型中token、segment和position三种embedding的构造与相加流程。通过定义词表、初始化三个Embedding层,对输入序列的token、句子片段和位置信息分别进行编码,最终将三种embedding逐元素相加得到Transformer的输入表示。示例展示了一个包含[CLS]和[SEP]标记的典型BERT输入格式,输出为11×768维的矩阵,符合BERT Base模型的输入要求。该流程清晰呈现了BERT如何通过组合不同维度的信息来构建丰富的输入表示。
2025-11-24 21:22:24
701
原创 LangChain 文本自动摘要 - Stuff 方式实现
本文介绍了使用LangChain框架实现文本自动摘要功能的核心方法,重点讲解Stuff方式的实现流程。通过Runnable API将多个文档合并后一次性发送给大语言模型(LLM)生成摘要,包括文档加载、提示词定义、模型调用等关键步骤。该方法保留了完整上下文,只需一次LLM调用,适合处理中等长度文档。文章详细解析了代码逻辑,展示了如何在新版LangChain中使用Runnable方式替代旧API,并提供了从网页加载文档到生成最终摘要的完整解决方案。
2025-11-19 13:36:38
506
原创 高性能文本生成API开发:FastAPI与Transformer模型整合
摘要:本文介绍了一个基于FastAPI框架和Hugging Face预训练模型distilgpt2的文本生成API开发方案。该服务通过HTTP POST接口接收用户prompt,调用轻量级GPT-2模型生成连贯文本,并返回结果。系统采用AutoTokenizer和AutoModelForCausalLM加载模型,支持GPU加速,通过beam search参数优化输出质量。API设计包含Pydantic数据验证和错误处理,适用于聊天机器人、内容创作等场景,具有高性能和易部署特点。核心代码展示了模型初始化、文本
2025-11-19 12:40:29
242
原创 LangChain 实现文本分类任务
使用 PydanticBaseModel声明分类任务需要的字段,并通过Field提供描述或枚举约束。LangChain 会返回符合 Schema 的对象。"""定义一个Pydantic的数据模型,未来需要根据该类型,完成文本的分类"""# 文本的情感倾向,预期为字符串类型sentiment: str = Field(description="文本的情感")# 文本的攻击性,预期为1到10的整数description="描述文本的攻击性,数字越大表示越攻击性"
2025-11-18 22:14:56
650
原创 LangChain 生成结构化数据
本文档介绍如何使用 LangChain 框架结合大语言模型自动生成结构化数据。通过定义 Pydantic 数据模型、提供少量示例数据,利用 Few-Shot Learning 技术批量生成符合格式要求的数据。以医疗账单数据为例,详细阐述从数据模型定义、示例准备、提示模板构建到数据生成的完整流程,并探讨其在数据增强、系统测试、隐私保护等场景的应用价值。
2025-11-18 14:09:07
815
原创 Langchain自动生成数据
本文介绍了使用LangChain框架结合Qwen大语言模型实现关键词驱动的智能文本生成系统。该系统通过输入关键词列表,自动生成包含这些关键词的自然语言文本,适用于数据增强、内容创作等场景。文章详细阐述了技术架构、实现流程和代码示例,展示了如何配置Qwen模型、创建数据生成链以及设置生成偏好。该系统可快速生成多样化的文本数据,支持中文处理,具有简单易用、灵活配置等优势,为机器学习、测试数据生成和内容创作提供了高效解决方案。
2025-11-18 12:59:33
659
原创 LangChain提取和输出结构化数据
本文介绍了如何利用LangChain的with_structured_output功能从非结构化文本中提取结构化人物信息。通过构建"模型+提示+结构化解析"流水线,实现了从任意文本中提取多个人物的姓名、发色和身高信息,并确保输出符合Pydantic模型Manypeople的JSON格式。文章详细说明了解决方案的关键逻辑、流程图和代码实现,展示了如何通过Qwen模型结合LangChain和Pydantic校验,构建可靠的多人物信息抽取系统,有效避免了脏数据的流入,便于下游系统使用提取结果。
2025-11-17 21:22:37
511
原创 Langchian检索YouTube视频字幕
本文介绍了一个使用Qwen模型和Chroma向量库进行YouTube视频字幕检索的流程化教程。教程展示了如何加载已持久化的向量数据库、利用结构化LLM输出生成检索指令,并按条件执行相似度搜索。核心组件包括DashScopeEmbeddings嵌入模型、ChatOpenAI(Qwen兼容)语言模型,以及基于Pydantic的Search数据结构。关键步骤包括初始化配置、加载向量库、构建处理链路、应用过滤条件、执行相似度搜索等。教程提供了完整的Python代码示例,实现了从用户自然语言问题到精确检索结果的完整流
2025-11-17 20:32:56
406
原创 Agent 与 MySQL 数据库整合
摘要 该任务展示了如何将Qwen大模型与MySQL数据库整合,通过LangChain/LangGraph代理实现自动化数据库查询。主要步骤包括: 初始化Qwen模型,通过兼容OpenAI接口进行调用 建立MySQL连接并配置SQLDatabaseToolkit工具包 设置系统提示词约束代理行为(限制查询结果数量、禁止DML操作) 使用LangGraph的create_tool_calling_executor创建代理执行器 调用代理处理用户查询,自动执行"查看表结构→生成SQL→执行查询→返回结果
2025-11-17 15:27:11
1283
原创 LangChain 与 MySQL 数据库整合
本文介绍了如何将LangChain与MySQL数据库整合,构建完整的"自然语言→SQL→查询→回答"流程。主要内容包括: 环境配置 安装PyMySQL驱动 初始化Qwen LLM模型 配置MySQL数据库连接 核心流程 自定义create_sql_query_chain函数生成SQL 使用Runnable组合执行SQL并获取结果 将查询结果转化为自然语言回答 实现特点 保留SQL生成和执行过程的透明度 支持灵活扩展和定制 提供完整的代码示例 注意事项 确保PyMySQL正确安装 检查数据
2025-11-17 14:51:15
963
原创 LangChain 构建 RAG 问答应用
本文介绍了使用LangChain框架构建支持多轮对话的RAG问答系统。系统通过WebBaseLoader爬取网页内容,经RecursiveCharacterTextSplitter分割后存入Chroma向量数据库。核心功能包括:基于Qwen大语言模型的语义检索、历史感知的问题重新表述、结合上下文的多轮对话支持等。文章详细阐述了文档处理链、检索链和完整检索链的实现逻辑,展示了如何将检索到的文档内容与对话历史结合,生成准确回答。该系统实现了从文档加载到智能问答的完整流程,是检索增强生成技术的典型应用案例。
2025-11-17 14:14:18
698
原创 LangChain 构建 AI 代理(Agent)
本文介绍了使用LangChain构建AI代理系统的技术方案。该系统通过集成Qwen大语言模型和Tavily搜索引擎工具,实现了智能判断和自动执行工具调用的能力。核心流程包括:模型初始化、工具绑定、自动判断逻辑、代理执行器创建以及完整查询处理。系统能够区分知识性问题和需要外部信息的问题,并根据不同类型自动选择直接回答或调用搜索引擎获取实时数据。关键代码展示了工具绑定、判断逻辑和代理执行器的实现,最终构建出一个具备"思考-行动-观察"能力的AI代理系统。
2025-11-16 16:02:23
849
原创 LangChain 构建向量数据库和检索器
✅统一的接口:所有组件使用相同的调用方式✅链式组合:使用管道操作符轻松组合组件✅多种执行模式:支持同步、异步、批量、流式处理✅类型安全:自动处理类型转换和推断✅高度可组合:支持复杂的处理流程✅易于扩展:可以轻松添加自定义组件正是因为这些特性,LangChain 才能构建出如此灵活和强大的 LLM 应用框架。通过将检索器、提示词模板、LLM 模型等都设计为 Runnable 类型,我们可以像搭积木一样组合它们,构建出复杂的 AI 应用。数据准备阶段:将原始文档转换为Document。
2025-11-16 15:08:59
1004
原创 采用Langchain调用LLM完成简单翻译任务
本文介绍了一个基于LangChain框架的大语言模型调用系统,支持OpenAI和多种国产模型(通义千问、DeepSeek等)。系统采用统一接口设计,通过ChatOpenAI类适配不同平台,提供灵活的模型切换和代理配置功能。核心功能是构建可配置的多语言翻译服务,包括Prompt模板设计、输出解析和链式组合。项目还演示了如何通过FastAPI和LangServe将翻译链部署为Web服务,提供RESTful API接口。整体设计采用配置驱动模式,代码结构清晰,易于扩展维护,是学习LangChain框架的实用示例。
2025-11-15 21:40:49
907
原创 预训练语言模型(Pre-trained Language Model, PLM)介绍
预训练语言模型(以BERT为代表)通过“Pre-train + Fine-tune”模式,彻底革新了NLP领域的技术范式。其核心价值在于利用海量无标注数据学习通用语言知识,为下游任务提供强大基础;而Transformer架构的自注意力机制,則保障了模型对语义关联的深度捕捉能力。尽管BERT存在训练成本高、生成能力弱等局限,但它奠定了现代预训练技术的基础,后续的GPT、T5、CLIP等模型均在其思想上不断优化。未来,预训练技术将朝着“更高效、多模态、通用化”的方向发展,持续推动NLP乃至人工智能领域的进步。
2025-11-15 12:58:30
858
原创 语言模型(Language Model)介绍
摘要: 语言模型是NLP的核心技术,通过计算文本概率评估其合理性。主要分为四类:统计语言模型(如N-gram,基于频率统计)、神经语言模型(如RNN,利用词向量捕捉语义)、预训练语言模型(如BERT,通过微调适配任务)和大语言模型(如GPT-4,具备强大生成能力)。N-gram模型基于马尔科夫假设,但面临数据稀疏问题,需通过平滑技术解决。神经网络模型能处理长距离依赖,泛化能力更强。评价指标以困惑度(PPL)为主,值越低模型越好。典型应用包括语音识别、输入法等,通过优化文本序列选择提升结果准确性。
2025-11-15 12:44:04
1002
原创 基于 LangChain 和 Hugging Face 的 RAG 问答系统实现
本文介绍了一个基于LangChain和Hugging Face实现的RAG(检索增强生成)问答系统。该系统通过从本地文档加载知识、构建FAISS向量数据库、检索相关文档片段,并结合大语言模型生成答案。项目采用模块化设计,包含文档加载与预处理、向量化存储、检索器构建、问答链生成等核心模块,可应用于企业内部知识库、技术文档助手等场景,有效解决传统大语言模型的局限性。
2025-11-14 20:48:52
952
原创 中文分词全切分算法
本文档详细介绍了中文分词全切分算法的实现原理和应用场景。该算法基于字典匹配和深度优先搜索(DFS),结合记忆化递归优化,能够找出给定文本在字典约束下的所有可能切分方式。
2025-11-14 11:06:31
993
原创 基于训练好的词向量模型进行聚类
本文档详细介绍了基于Word2Vec 词向量模型和K-Means 聚类算法的中文文本聚类任务。该任务通过将文本转换为向量表示,使用无监督学习方法自动发现文本数据中的潜在模式和主题结构。
2025-11-14 10:48:05
710
原创 初次接触——模型分布式训练——DP,DDP
摘要: 随着深度学习模型参数规模爆发式增长(如GPT-3达1750亿参数),传统单卡训练面临算力与内存双重瓶颈。分布式训练成为必由之路,主要通过三种并行策略:数据并行(拆分批量数据)、模型/流水线并行(切分网络层)、混合并行(如ZeRO结合张量并行)。其中数据并行演进显著:DP模式因参数服务器架构存在通信瓶颈;DDP采用Ring-AllReduce算法将通信负载均衡分散到各GPU,通过Reduce-Scatter和All-Gather两阶段实现高效梯度聚合,使多机训练成为可能。尽管DP与DDP总通信量相同,
2025-11-13 14:02:34
897
原创 基于OpenAI与DashScope的AI知识面试模拟系统实现
本文介绍了一个基于大语言模型的AI面试模拟系统实现方案。该系统使用阿里云DashScope平台的QWen-Turbo模型,通过Chat Completion接口实现自动化面试交互。系统特点包括:通过环境变量管理API密钥确保安全性;采用消息列表维护多轮对话上下文;实现健壮的异常处理机制;支持用户通过命令行与AI面试官进行连续问答。该系统为AI学习者提供了结构化的知识测试环境,解决了传统面试模拟的人力成本问题。代码实现展示了如何兼容OpenAI SDK格式调用阿里云服务,包含初始化配置、对话管理、错误处理和交
2025-11-12 22:48:54
333
原创 摘要生成器(Gradio界面)
本文介绍了一个基于Gradio框架构建的AI摘要工具,通过大语言模型(LLM)自动生成文章摘要。系统提供交互式Web界面,用户可输入任意文章并调节温度参数控制输出多样性(0.0-2.0)。核心功能包括:1)智能摘要生成;2)温度参数调节;3)结果导出为JSON文件。技术实现采用OpenAI兼容API(示例为阿里云DashScope),调用"qwen-turbo"模型,支持对话重置和数据持久化。该工具适用于快速提取文本要点,参数化控制生成效果。
2025-11-12 22:44:11
218
原创 通过 API 与 Gradio 构建 AI 应用
本文介绍了一个基于阿里云DashScope API和Gradio框架构建的AI聊天助手应用。该应用通过兼容OpenAI标准的API接口实现智能对话功能,包含API连通性测试、多轮对话处理、错误捕获等核心模块。技术实现上采用客户端-Gradio-API的三层架构,支持环境变量配置密钥,并预留了扩展接口。部署仅需Python 3.7+环境,启动后可通过浏览器访问交互界面,支持消息发送、历史记录和清空功能。代码中特别强调了API密钥的安全注意事项,建议生产环境启用HTTPS并添加内容审核模块。该项目为开发者提供了
2025-11-12 22:40:46
443
原创 初次接触 LoRA 技术
LoRA(低秩适应)技术通过将权重更新分解为两个小矩阵乘积(ΔW=BA),显著减少微调预训练模型所需的参数量。相比传统全量微调,LoRA可降低参数10000倍,减少GPU显存占用3倍,且不影响推理速度。该技术可应用于Transformer注意力机制中的Q/K/V计算,仅需训练低秩矩阵而非完整权重。使用时需注意与基础模型配合加载及权重合并操作。LoRA通过低维子空间理论实现高效微调,解决了大模型部署的资源瓶颈问题。
2025-11-12 22:37:48
201
原创 初识LLM API:环境配置与多轮对话演示
本文介绍了LLM API的基础使用,重点讲解了环境变量配置和多轮对话实现方法。主要内容包括:1)如何通过命令行或Python设置环境变量来存储API密钥;2)使用os.getenv()获取环境变量值;3)单轮对话API调用示例;4)多轮对话的实现原理(手动保存上下文)和代码演示;5)流式输出的实现方法。文章强调使用国内大模型API的门槛较低,无需深入理解AI原理,适合初学者快速上手。通过示例代码展示了从单轮到多轮对话的具体实现步骤。
2025-11-12 22:35:12
740
原创 RNN循环神经网络
是一类具有循环结构的神经网络,专为处理序列数据(如时间序列、文本、语音)而设计。当前输出不仅依赖当前输入,还依赖之前的状态(记忆)。RNN 是序列建模的“开山鼻祖”,擅长短序列,但长序列记忆差、训练难,已被等结构逐步取代或改进。
2025-10-24 17:53:02
235
原创 Docker 部署深度网络模型(Flask框架思路)
Docker 上线大模型的“五步曲”打包资产把训练好的权重、推理脚本和 API 服务端代码整理成可发布的目录。(这里用Flask框架,够简单)镜像配方用 Dockerfile 精确描述:基础镜像、依赖库、驱动、端口、启动命令——一次写成,处处可复现。本地试跑docker build && docker run,先在笔记本或单机上冒烟测试,确认镜像健康、接口通畅。压测与调优用负载工具打流量,根据 GPU 利用率、延迟、内存占用等关键指标做针对性优化。推向生产。
2025-08-30 14:43:49
904
原创 Tackling the generative learning trilemma with denoising diffusion gans 自己理解
《TACKLING THE GENERATIVE LEARNING TRILEMMA WITH DENOISING DIFFUSION GANS》发表于 ICLR 2022,主要研究了如何解决生成学习中的“三难困境”(generative learning trilemma),即同时实现高质量样本生成、模式覆盖(mode coverage)和快速采样。以下是对论文动机、思路和解决方法的分析:在过去的十年中,深度生成模型取得了显著进展,但现有模型在以下三个方面往往难以兼顾:这种“三难困境”被称为生成学习三难困
2025-02-21 21:59:06
758
原创 在Jupyter notebook中添加虚拟环境
通常我们打开Jupyter notebook,创建一个新文件,只有一个Python3,但是我们也会想使用自己创建的虚拟环境,很简单仅需几部即可将自己的conda环境添加到jupyter notebook中。3.需要虚拟环境写到 jupyter notebook 的内核。1.创建并激活conda环境。2.安装ipykernel。
2024-07-19 21:59:17
1035
2
原创 【已解决】激活虚拟环境报错:此时不应有Anaconda3\envs[envs]\Library\ssl\cacert.pem。:
一定要 Anaconda安装到没有空格的路径,没有中文的路径。
2024-05-15 20:52:46
1189
2
原创 frc内网穿透服务
云服务器是一种具备公网IP的服务器,通过使用内网穿透服务(如FRC),可以实现在内网服务器上主动接收特定IP的请求。通过配置内网穿透,外部用户只需使用公网IP和指定的端口号,即可访问我们自己的服务器。链接: https://pan.baidu.com/s/1WCV-Fh_Ni2FQGQu9PQZdAA?链接: https://pan.baidu.com/s/1WCV-Fh_Ni2FQGQu9PQZdAA?内网服务器配置操作基本差不多,对frpc.ini进行修改,启动即可。编辑配置文件 frpc.ini。
2024-02-03 15:38:52
1062
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅