- 博客(9)
- 收藏
- 关注
原创 LlamaIndex入门指南:构建私有知识库的保姆级教程(附完整RAG实现)
在大语言模型(LLM)时代,如何让通用模型理解私有数据并生成精准回答,是开发者面临的核心挑战。(原GPT Index)应运而生,它作为连接LLM与私有数据的桥梁,通过检索增强生成(RAG技术,将外部知识库、结构化数据与模型的生成能力深度融合,让AI真正“读懂”你的专属信息。官网文档查阅地址其核心价值在于:支持从PDF、数据库、API等100+数据源(如企业文档、医疗报告)提取信息,构建统一索引;通过语义分块与向量化技术,突破LLM的上下文长度限制,实现TB级数据的高效检索;。
2025-04-01 18:21:53
1662
3
原创 RAG与向量数据库的“笨”理解:一个新手小白的原理摸索笔记
作为一名技术小白,我在理解RAG与向量数据库时,曾被术语和公式层层“劝退”。这份笔记仅是一个初学者的笨拙探索:用买菜类比Embedding、用图书馆想象向量搜索,试图在晦涩的概念与日常经验间搭一座摇摇晃晃的桥。文中难免存在理解偏差,却愿以这些磕绊的思考痕迹,为同样迷茫的新手提供一丝共鸣。若您发现疏漏,恳请不吝指正——毕竟在技术的深海中,笨拙的试错也是划向彼岸的船桨。向量是一种有大小和方向的数学对象。它可以表示为从一个点到另一个点的有向线段。例如,二维空间中的向量可以表示为xy(x,y)xy。
2025-03-30 15:32:50
1172
原创 Xtuner 大模型训练入门小记:从配置到微调
大模型虽强,但让它适配特定场景总需额外“调教”——传统微调对算力和技术要求之高,常让人望而却步。Xtuner 的诞生,正是为了解决这一痛点。它用极简的配置文件和自动化流程,将数据清洗、训练优化等复杂步骤“藏”在背后。无论你是想快速验证一个模型能力,还是为业务定制专属AI助手,只需几行命令,即可在有限资源下轻松启动训练。本文抛开冗长理论,专注“最小可行步骤”,助你30分钟内跑通第一个微调实验。Xtuner官方文档。
2025-03-30 01:28:01
1166
原创 从零开始构建智能文档助手:LangChain入门与实践指南
传统AI对话系统困于"知识孤岛":✘ 无法读取最新文档✘ 缺失专业领域认知✘ 缺乏多步骤任务执行力LangChain以三大革新破局:模块化架构:200+预置组件自由拼装RAG技术栈:实时检索+智能生成的黄金组合工具互联:API/数据库/计算器的神经接口参考文档可以查看:https://www.langchain.com.cn/docs/tutorials/通俗解释:为语言模型打造的"瑞士军刀"核心价值:让AI模型具备"动手能力"(连接工具/数据/服务)
2025-03-29 16:32:28
850
原创 LLaMaFactory选择QLoRA微调报错
看上去是peft包版本有问题,手动执行下升级到最新版本。再次选择QLoRA微调,依然报错,报错如下。直接执行命令,忽视跳过自动版本检查。
2025-03-27 22:16:45
220
1
原创 vllm安装和部署私有大模型以及解决LLamaFactory微调效果与vllm部署效果不一致
vLLM是一个快速且易于使用的库,专为大型语言模型 (LLM) 的推理和部署而设计。具体参考官方文档是一个专为 LLaMA 系列大语言模型(如 Meta 的 LLaMA、LLaMA-2 等)设计的开源工具库,主要用于模型的 高效微调(Fine-tuning)部署和 应用开发。它旨在简化大模型定制化流程,降低用户使用门槛,支持快速适配不同下游任务(如对话、问答、代码生成等)。具体可以参考文档。
2025-03-27 21:33:01
1239
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人