自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(36)
  • 收藏
  • 关注

原创 RAG从入门到高阶(五):Hybrid RAG全频谱智能检索

本文介绍了一种混合检索增强生成系统(HybridRAG),它通过整合向量检索、关键词检索和图检索三种方法,实现了对不同类型查询的智能响应。系统核心包括:智能路由器:分析查询意图,动态分配检索权重;混合检索器:并行执行多路检索并融合结果;主控制器:协调整体流程并生成最终答案 。HybridRAG相比单一检索方法具有显著优势: 覆盖全频谱知识:适应事实性、语义性和关系性查询;增强鲁棒性:多种检索方法互为补充;自适应查询处理:智能匹配最佳检索策略;提高召回率和准确率。

2025-07-05 17:11:49 1215

原创 RAG从入门到高阶(四): 知识图谱Graph RAG

本文详细介绍了GraphRAG系统,这是一种将知识图谱与RAG框架结合的创新方法。传统RAG在处理多跳推理和深层关系时存在局限,GraphRAG通过结构化知识存储、多跳推理能力和可解释的推理路径解决了这些问题。文章系统阐述了GraphRAG的工作原理,包括知识图谱构建、查询理解与子图检索、图推理与答案生成三个阶段。完整展示了从实体关系抽取到知识图谱构建,再到子图检索和答案生成的实现代码。

2025-07-05 17:10:34 1130

原创 RAG从入门到高阶(三):Multimodal RAG 跨模态智能系统

本文深入探讨了MultimodalRAG(多模态检索增强生成)技术,它突破了传统RAG仅处理文本的限制,让AI能够理解图像、音频等多模态数据。文章详细解析了其三大核心阶段:多模态编码与统一向量空间、多模态索引与检索、多模态生成输出,并提供了完整的代码实现方案,包括多模态编码器、向量存储和生成器等组件。通过实际示例展示了文本、图像和音频查询的应用场景。文章还讨论了性能优化策略、典型应用领域以及部署建议,指出MultimodalRAG在医疗、教育、电商等领域的广阔前景,同时分析了其面临的挑战。

2025-07-04 00:11:09 1445

原创 RAG从入门到高阶(二):Retrieve-and-Rerank

本文介绍了Retrieve-and-Rerank RAG系统,这是一种改进的检索增强生成架构。系统采用两阶段检索策略:首先通过混合检索(向量+关键词)广泛召回候选文档,再使用交叉编码器进行精确重排序选出最相关文档。文章详细解析了系统实现,包括混合检索器、交叉编码器重排序器和主控制器的代码实现,并提供了配置管理、性能优化(批量处理和缓存)、评估指标等实用方案。与基础RAG系统相比,该架构在Precision、Recall等指标上提升15-20%,但会带来一定延迟增加。

2025-07-04 00:03:48 1033

原创 RAG从入门到高阶(一):构建你的第一个Naive RAG

RAG技术通过结合检索与生成能力,解决了传统大语言模型在专业知识和最新信息上的局限性。本文介绍了NaiveRAG的三个核心步骤:1)知识库准备(文档分块和向量化);2)问题检索(相似度匹配);3)答案生成(结合检索内容)。文章提供了Python实现代码,包含文档处理器、向量存储和主控制器模块,并演示了实际应用示例。NaiveRAG具有实现简单、成本低廉等优点,但也存在检索质量依赖简单向量相似度、无法处理复杂推理等局限性。

2025-07-03 23:55:11 1124

原创 A2A协议详解与代码实战(一)

本文深入解析Google设计的智能体间通信协议A2A(Agent2Agent Protocol),通过构建数学专家智能体网络展示其核心功能。A2A协议作为智能体协作框架,包含三大关键技术:1)智能体发现机制(AgentCard);2)任务委托与状态管理;3)JSON-RPC安全通信。实战部分演示了三个数学智能体(正弦/余弦/正切)的协同工作流程,包括环境搭建、智能体开发(@agent/@skill装饰器使用)和基于关键词的路由决策系统。

2025-06-26 23:23:12 1072

原创 AI编程/RAG基础教程(二)快速开发基于本地大模型和 FAISS 的 RAG 程序

本文介绍了如何从零搭建一个简易的RAG问答系统,采用Python技术栈(FastAPI后端+Streamlit前端)。系统包含完整的RAG流程:文档预处理(PDF加载/切分)、向量化(使用OllamaEmbeddings和FAISS)、检索增强生成(基于qwen3:14b模型)。项目采用模块化结构,包含data、indexs、config等标准目录。作者通过代码示例演示了核心实现,并指出当前系统的不足,包括文档切分策略、嵌入模型选择、提示词工程等需要优化的环节,为后续RAG系统调优提供了方向性指导。

2025-06-26 08:04:32 781

原创 AI编程/RAG基础教程(一)基于本地大模型和 FAISS 的 RAG 实战教程

本文详细介绍了如何从零开始构建一个基于检索增强生成(RAG)技术的智能问答系统。主要内容包括:1)RAG的基本原理,通过检索外部知识增强大语言模型回答的准确性和实时性;2)具体实现步骤:PDF文档加载、文本拆分、向量存储与检索、大模型初始化;3)使用LangChain框架、Ollama本地模型和FAISS向量数据库的代码实现;4)系统优化方向如数据预处理、文本拆分策略、检索技术等;5)可替代的技术栈选项。通过本教程,读者可以掌握RAG的核心技术,并搭建一个完整的本地智能问答系统。

2025-06-25 00:54:31 1180 5

原创 RAG实战基础篇/windows电脑快速部署qwen3:14B

本文介绍了在Windows系统上快速部署ollama运行Qwen3:14B大模型的方法。首先下载安装ollama后,通过命令行拉取Qwen3:14B模型,该模型在int4量化下占用11.5G显存。文章展示了如何通过本地API接口(localhost:11434)进行模型调用,并提供了POST请求示例,支持常规和流式输出两种模式。最后提到后续将基于该本地大模型搭建RAG应用,实现个人知识库问答功能。整个部署过程简单高效,适合快速搭建本地AI开发环境。

2025-06-23 23:49:53 625

原创 qwen2:7b本地化部署:Ollama更新、设置、api调用qwen2服务

本篇介绍了如何使用Ollama本地化部署qwen2:7b,以及进行Ollama的参数设置以及使用api调用qwen2的api服务的方法。

2024-08-26 00:33:01 19869 2

原创 Qwen模型LoRA微调后的两种启动方式

本文记录了Qwen模型LoRA微调后的两种启动方式。

2024-05-18 17:03:29 3136

原创 Ubuntu22.04本地部署qwen模型、jupyterlab开发环境、LoRA微调全流程-续

接着上一篇,在Ubuntu22.04本地部署qwen模型,准备数据,进行LoRA微调。

2024-05-18 16:25:44 1538 3

原创 Ubuntu22.04本地部署qwen模型、jupyterlab开发环境、LoRA微调全流程

这段时间在自己的Win11系统上部署了chatGLM以及Qwen模型,进行对话、推理以及工具调用都没有问题,但是在尝试进行微调的时候发现好像并不能成功,因此花费了很大的力气,又分别在ubuntu桌面版、windows子系统WSL2 Ubuntu上部署了Qwen模型,并尝试进行LoRA的微调实践。由于过程比较多,步骤较为繁琐,我可能会分几个部分进行叙述。首先介绍一下我的两个环境(平民玩家,勿喷):一台笔记本安装的Ubuntu22.04桌面版:显卡是1070M 8G。

2024-05-18 15:31:40 3982

原创 学习笔记:使用Ollama项目快速本地化部署Qwen 1.5模型

本文记录了采用Ollama项目快速本地部署运行qwen1.5模型。

2024-05-16 13:09:22 6768

原创 windows系统jupyter lab安装和配置:本地开发、探索大模型的利器

本文介绍了jupyterlab的安装和配置。

2024-05-16 10:50:55 2736

原创 Qwen学习笔记4:Qwen 7B模型调用天气API实现天气的即时查询

本篇笔记记录了使用Qwen模型的函数调用,实时查询天气的功能。

2024-05-15 22:07:22 2102

原创 Qwen学习笔记3:Qwen模型调用外部API实现模型增强(openai的形式)

本文进一步记录了千问模型的函数调用功能使用方法,大家可以一起学习交流~

2024-05-15 19:11:37 7729 3

原创 Qwen学习笔记2:Qwen模型基于ReAct原理实现function calling

本文继续记录了Qwen模型的function calling功能的实践代码。

2024-05-15 18:26:51 5484 5

原创 Qwen学习笔记1:Qwen模型使用ReAct原理实现function calling,增强模型能力

本文记录使用Qwen模型基于ReAct原理实现的函数调用功能,并附带记录一些代码。

2024-05-15 17:30:39 5186

原创 千问模型flash-attention加速框架的部署

本文记录了windows系统安装flash-attention,以加速通义千问模型的推理速度,降低显存占用的安装部署过程

2024-05-14 16:47:36 2131 2

原创 通义千问Qwen 1.8B以及7B chat模型本地化部署

本文简单的记录了在本地部署阿里通义千问1.8B以及7B模型

2024-05-14 16:21:13 5264 5

原创 本地部署 Langchain-ChatGLM

本文记录了在windows11上部署和测试langchain+chatGLM3这个项目的过程。

2024-05-11 19:30:59 1575 3

原创 chatGLM3-6b与FastGPT互联测试

简单介绍了将chatGLM2升级为chatGLM3之后,再次连接FastGPT进行知识库链接的操作过程,给大家进行参考。

2024-05-09 13:52:46 374 1

原创 本地部署chatGLM3-6b教程

之前一直用的chatGLM2,将FastGPT本地化跑通后,现在试试将chatGLM2升级为chatGLM3。升级就比较顺利了,过程如下,该过程参考了哔哩哔哩网站的一个视频。

2024-05-09 12:54:21 2478 1

原创 FastGPT连接oneapi报错:Connection error.后续:真正的原因

FastGPT连接oneapi报错:Connection error.后续

2024-05-07 15:16:36 2147 3

原创 FastGPT连接oneapi报错:Connection error.

FastGPT连接oneapi报错:Connection error解决办法。

2024-05-06 18:21:07 3319 4

原创 WSL2+ChatGLM2+FastGPT+oneapi本地化部署

使用WSL2+docker+oneapi成功部署fastGPT

2024-05-06 18:00:32 4407 10

原创 使用NextChat搭建本地ChatGTP应用,调用本地chatGLM2-6B模型

本文记录了使用NextChat,调用本地chatGLM2-6B模型

2024-04-30 16:12:00 4025 3

原创 采用API的方式调用本地chatGLM2-6B,postman方式访问接口,openai格式调用接口

本文记录了采用api的方式访问本地chatGLM2-6B的方法

2024-04-30 11:05:08 2089 1

原创 ChatGLM2-6B通过命令行和网页demo访问

本地部署ChatGLM后的初步尝试

2024-04-29 16:46:59 409 1

原创 windows11 本地化部署ChatGLM2-6B 安装笔记

详细记录了windows11 安装本地化部署ChatGLM2-6B的全过程

2024-04-29 15:15:35 1600

原创 harbor服务器配置完成,网页能访问,使用docker login登录失败,提示:unauthorized: authentication required

服务器登录harbor失败

2022-08-30 09:36:09 7288 1

原创 SecureCRT9.1高亮配色设置

远程工具Secure CRT显示设置

2022-04-18 18:34:57 12843 10

原创 虚拟机安装麒麟操作系统网络设置

麒麟操作系统安装在虚拟机上,设置网络时,发现一些问题,现在解决了,记录一下。1、虚拟机安装麒麟操作系统后,选择网络设置,没有连接选项,无法连接到主机网络。(截图忘保存了)这是由于安装麒麟系统时,未选择正确的linux版本,我们选择“CentOS 8”,重新安装,即可看到网络设置中,可以连接到主机的网络。2、主机与虚拟机麒麟系统无法ping通,可以参照以下步骤进行设置。(1)设置虚拟机IP点击右下角网络图标,右键,选择“编辑连接”选择已连接的网络,点击设置.

2022-04-18 17:50:03 31194

原创 虚拟机麒麟系统V10安装VMware Tools

虚拟机安装好麒麟系统后,无法设置到合适的分辨率,窗口无法随着虚拟机窗口的大小改变而改变,可以通过安装VMware tools解决。然而网上大部分的解决办法是通过虚拟机设置:->虚拟机(M)->安装VMware tools,这在应用于麒麟系统时不可取。因为“安装VMware tools”是灰色状态的,不可选。通过网上找到一个教程如下:虚拟机版本:VMwareworkstation16.2.3麒麟系统版本:Kylin-Server-10-SP2-x86-Release-Build09

2022-04-18 17:12:00 18030 2

原创 如何在公司内网机上安装.net framework 3.5(错误:0X8024402C DISM失败解决方案)

网上查找N种方法,都无法成功安装,直到看到这篇博客,感谢博主大大:原文链接:https://blog.youkuaiyun.com/knkn123/article/details/108456661

2021-07-15 16:29:04 6128 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除