开源教程「动手学大模型应用开发」,从零基础到掌握大模型开发的关键技能!

LLM 正逐步成为信息世界的新革命力量,其通过强大的自然语言理解、自然语言生成能力,为开发者提供了新的、更强大的应用开发选择。随着国内外井喷式的 LLM API 服务开放,如何基于 LLM API 快速、便捷地开发具备更强能力、集成 LLM 的应用,开始成为开发者的一项重要技能。

目前,关于 LLM 的介绍以及零散的 LLM 开发技能课程已有不少,但质量参差不齐,且没有很好地整合,开发者需要搜索大量教程并阅读大量相关性不强、必要性较低的内容,才能初步掌握大模型开发的必备技能,学习效率低,学习门槛也较高。

动手学大模型应用开发

Github开源教程「动手学大模型应用开发」从实践出发,结合最常见、通用的个人知识库助手项目,深入浅出逐步拆解 LLM 开发的一般流程、步骤,旨在帮助没有算法基础的小白通过一个课程完成大模型开发的基础入门。同时,我们也对项目本身做了清晰、全面的逐层规划及封装,实现了不同 LLM API 到项目的统一整合,帮助开发者能够自由、统一调用不同 LLM,充分降低学习门槛。

内容简介

「动手学大模型应用开发」是一个面向小白开发者的大模型应用开发教程,以个人知识库助手项目为实践目标,通过这个项目完成大模型开发的重点入门。

主要内容包括:

  1. 大模型简介,何为大模型、大模型特点是什么、LangChain 是什么,针对小白开发者的简单介绍;
  2. 如何调用大模型 API,本节介绍了国内外知名大模型产品 API 的多种调用方式,包括调用原生 API、封装为 LangChain LLM、封装为 Fastapi 等调用方式,同时将包括百度文心、讯飞星火、智谱AI等多种大模型 API 进行了统一形式封装;
  3. 大模型开发流程及架构,大模型应用开发的基本流程、一般思想和「动手学大模型应用开发」的架构分析;
  4. 数据库搭建,不同类型知识库文档的加载、处理,向量数据库的搭建;
  5. Prompt 设计,如何设计 Prompt 来让大模型完成特定任务,Prompt Engineering 的原则和技巧有哪些;
  6. 验证迭代,大模型开发如何实现验证迭代,一般的评估方法有什么;
  7. 前后端开发,如何使用 Gradio、FastAPI 等框架快速开发大模型 Demo,展示应用能力。

该教程为入门级,对学习者的人工智能基础、算法基础没有任何要求,仅需要掌握基本 Python 语法、掌握初级 Python 开发技能即可。

示例章节演示

大模型开发的整体流程

教程中提到,一般可以将大模型开发分解为以下几个流程:

图片开发流程

  1. 确定目标。在进行开发前,我们首先需要确定开发的目标,即要开发的应用的应用场景、目标人群、核心价值。对于个体开发者或小型开发团队而言,一般应先设定最小化目标,从构建一个 MVP(最小可行性产品)开始,逐步进行完善和优化。
  2. 设计功能。在确定开发目标后,需要设计本应用所要提供的功能,以及每一个功能的大体实现逻辑。虽然我们通过使用大模型来简化了业务逻辑的拆解,但是越清晰、深入的业务逻辑理解往往也能带来更好的 Prompt 效果。同样,对于个体开发者或小型开发团队来说,首先要确定应用的核心功能,然后延展设计核心功能的上下游功能;例如,我们想打造一款个人知识库助手,那么核心功能就是结合个人知识库内容进行问题的回答,那么其上游功能的用户上传知识库、下游功能的用户手动纠正模型回答就是我们也必须要设计实现的子功能。
  3. 搭建整体架构。目前,绝大部分大模型应用都是采用的特定数据库+ Prompt + 通用大模型的架构。我们需要针对我们所设计的功能,搭建项目的整体架构,实现从用户输入到应用输出的全流程贯通。一般来说,我们推荐基于 LangChain 框架进行开发。LangChain 提供了 Chain、Tool 等架构的实现,我们可以基于 LangChain 进行个性化定制,实现从用户输入到数据库再到大模型最后输出的整体架构连接。
  4. 搭建数据库。个性化大模型应用需要有个性化数据库进行支撑。由于大模型应用需要进行向量语义检索,一般使用诸如 chroma 的向量数据库。在该步骤中,我们需要收集数据并进行预处理,再向量化存储到数据库中。数据预处理一般包括从多种格式向纯文本的转化,例如 pdf、markdown、html、音视频等,以及对错误数据、异常数据、脏数据进行清洗。完成预处理后,需要进行切片、向量化构建出个性化数据库。
  5. Prompt Engineering。优质的 Prompt 对大模型能力具有极大影响,我们需要逐步迭代构建优质的 Prompt Engineering 来提升应用性能。在该步中,我们首先应该明确 Prompt 设计的一般原则及技巧,构建出一个来源于实际业务的小型验证集,基于小型验证集设计满足基本要求、具备基本能力的 Prompt。
  6. 验证迭代。验证迭代在大模型开发中是极其重要的一步,一般指通过不断发现 Bad Case 并针对性改进 Prompt Engineering 来提升系统效果、应对边界情况。在完成上一步的初始化 Prompt 设计后,我们应该进行实际业务测试,探讨边界情况,找到 Bad Case,并针对性分析 Prompt 存在的问题,从而不断迭代优化,直到达到一个较为稳定、可以基本实现目标的 Prompt 版本。
  7. 前后端搭建。完成 Prompt Engineering 及其迭代优化之后,我们就完成了应用的核心功能,可以充分发挥大语言模型的强大能力。接下来我们需要搭建前后端,设计产品页面,让我们的应用能够上线成为产品。前后端开发是非常经典且成熟的领域,此处就不再赘述,我们将主要介绍两种快速开发 Demo 的框架:Gradio 和 Streamlit,可以帮助个体开发者迅速搭建可视化页面实现 Demo 上线。
  8. 体验优化。在完成前后端搭建之后,应用就可以上线体验了。接下来就需要进行长期的用户体验跟踪,记录 Bad Case 与用户负反馈,再针对性进行优化即可。

个人知识库助手系统架构

「动手学大模型应用开发」中的个人知识库助手项目,基于 LangChain 框架搭建,核心技术包括 LLM API 调用、向量数据库、检索问答链等。项目整体架构如下:

在这里插入图片描述
知识库助手系统架构

从底向上依次分为 LLM 层、数据层、数据库层、应用层与服务层:

  1. LLM 层:主要基于四种流行LLM API(OpenAI-ChatGPT、百度文心、讯飞星火、智谱GLM)进行了 LLM 调用封装,支持用户以统一的入口、方式来访问不同的模型,支持随时进行模型的切换;
  2. 数据层 主要包括个人知识库的源数据(包括 pdf、txt、md 等)以及 Embedding API,源数据经过 Embedding 处理可以被向量数据库使用;源数据需要经过 Embedding 处理才能进入向量数据库,我们在数据层自定义了智谱提供的 Embedding API 的封装,支持上层以统一方式调用智谱 Embedding 或 OpenAI Embedding。
  3. 数据库层 数据库层主要存放了向量数据库文件。同时,我们在该层实现了源数据处理、创建向量数据库的方法。为个人知识库源数据搭建的向量数据库,在本项目中选择了 Chroma;
  4. 应用层 为核心功能的最顶层封装,应用层封装了整个项目的全部核心功能。基于 LangChain 提供的检索问答链基类进行了进一步封装,从而支持不同模型切换以及便捷实现基于数据库的检索问答;也支持通过 model 参数来灵活切换使用的 LLM。我们实现了两个检索问答链,分别是有历史记录的 Chat_QA_Chain 和没有历史记录的 QA_Chain。
  5. 服务层:我们分别实现了 Gradio 搭建 Demo 与 FastAPI 组建 API 两种方式来支持本项目的服务访问。

通过示例章节的演示可以看出,「动手学大模型应用开发」是从零开始,全面又简短的大模型教程。对相关大模型开发理论、概念和基本技能进行了项目主导的重构,删去不需要理解的底层原理和算法细节,涵盖所有大模型开发的核心技能。

写到最后

教程整体时长在数小时之内,学完「动手学大模型应用开发」,你已经掌握了如何构建个人知识库助手,也恭喜你已经可以独立搭建一个大模型应用了,已经成为一名大模型应用开发者!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

<think>嗯,用户正在寻找适合零基础学习的大模型开源项目。从引用内容来看,引用1提到大模型应用的开发技能培训,引用2提供学习资料集合,引用3则列出国内外开源模型信息——这些正好构成零基础学习的完整路径:先掌握基础知识,再获取学习资源,最后选择实践项目。 用户特别强调"开源"和"零基础",说明需要低门槛入口。注意到引用3提到的开源项目如BentoML和NSQL具有明显优势:BentoML支持主流框架且预置模型,能避免环境配置困扰;NSQL的SQL生成功能则降低NLP入门难度。这两个项目都自带示例文档和社区支持,对新手友好。 考虑推荐方案时准备突出三点:首先强调可视化工具降低学习曲线(如HuggingFace Pipeline),其次推荐有中文文档的项目(如ChatGLM),最后提示学习路线——从模型调用到微调循序渐进。用户可能遇到的依赖安装问题也要提前预警,比如在GitHub文档中建议的Python版本。 参考资料中引用3的项目清单最相关,但用户上次询问的是学习路径(引用2的路线图),回答时需保持延续性。准备把开源项目嵌入到"LLM大模型学习路线"框架里,形成闭环指导。 </think>基于你的零基础背景,以下是易上手、文档完善的开源项目推荐,附带学习路径: ### 一、零基础友好型开源项目 1. **🤗 Hugging Face Transformers** - **优势**:提供`pipeline` API,5行代码调用大模型(如文本生成/翻译) ```python from transformers import pipeline generator = pipeline('text-generation', model='gpt2') print(generator("Hello, I'm learning", max_length=30)) ``` - **学习资源**:[官方Quickstart教程](https://huggingface.co/docs/transformers/quicktour)(含Colab实战) - **适合场景**:快速体验模型基础功能 2. **💬 ChatGLM-6B(清华开源)** - **优势**: - 支持中英双语,中文场景优化 - 可在消费级GPU(6GB显存)运行 - 提供[网页版Demo](https://huggingface.co/THUDM/chatglm-6b),零代码体验 - **实践建议**:从[Gradio交互界面](https://github.com/THUDM/ChatGLM-6B/tree/main/web_demo)入门修改对话逻辑 3. **🛠️ BentoML(引用[3])** - **特性**: ```mermaid graph LR A[选择预训练模型] --> B(用Python封装推理逻辑) B --> C[生成可部署API服务] C --> D[云端/本地一键部署] ``` - **新手价值**:无需训练,直接部署开源模型如LLaMA、Stable Diffusion ### 二、系统学习路线(引用[2]补充) 1. **基础阶段** - 掌握Python基础 → 学习PyTorch张量操作 → 理解Transformer架构[^1] 2. **工具阶段** - 用Hugging Face玩转模型 → 微调BERT分类任务([教程](https://huggingface.co/docs/transformers/training)) 3. **进阶阶段** - 使用LoRA轻量化微调 → 部署模型API(BentoML实战) > ⚠️ **避坑提示**: > - 首次运行模型前务必检查依赖版本(常见报错根源) > - 优先选择有中文文档/社区的项目(如ChatGLM中文GitHub Issues) ### 三、辅助资源包 1. **理论速查**:[《大规模语言模型:从理论到实践》](https://github.com/datawhalechina/so-large-lm)(开源电子书) 2. **实战数据集**:[Hugging Face Datasets](https://huggingface.co/datasets) 提供预处理好的训练数据 3. **免费算力**:Google Colab/Kaggle Notebook支持GPU在线运行
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值