你是否经历过这样的困扰:让AI生成季度财报分析,它却引用去年的财务数据导致决策偏差?或是让智能助手整理项目周报,它却混淆不同部门的工作内容,给出“一本正经的错误结论”?
斯坦福大学最新研究显示,即便顶尖的GPT-5大模型,处理特定领域知识时准确率仅47%;而麦肯锡2024年报告进一步指出,未采用增强技术的企业AI应用,因信息过时或幻觉问题导致业务失误的比例高达38%。问题的核心矛盾在于:大模型的知识是“固化在参数里的过去时”,而企业需要的是“能实时更新的专属现在时”。
这正是RAG(Retrieval-Augmented Generation,检索增强生成)技术成为企业AI“破局关键”的原因——它像给大模型配备了“实时更新的专属图书馆”,让AI不仅能流畅表达,更能精准引用、有据可依。如今,微软、谷歌、阿里等巨头已将RAG定为企业AI落地的核心路线,Gartner更是预测:到2025年,超75%的企业级AI应用将以RAG为基础架构。
本文将从概念拆解到实战优化,从技术原理到行业案例,带你全面掌握RAG技术,打造真正适配企业需求的智能知识库。
一、拆解RAG:不止“检索+生成”,更是大模型的“认知升级架构”
很多人将RAG简单理解为“先搜资料再写答案”,就像把智能手机等同于“打电话+玩游戏”——忽略了其底层的认知革新逻辑。RAG的本质,是重新定义大模型处理知识的方式:让“记忆”和“思考”各司其职。
传统大语言模型如同“背完百科全书却无法更新的学者”:知识截止于训练时间,面对新领域、新信息只能凭“模糊印象”回答。而RAG则为这位学者配备了“实时更新的资料库+精准检索的助理”,每次回答前先定位最新、最相关的信息,再基于事实推导结论。

跨行业案例:RAG如何解决不同领域的核心痛点
- 制造行业:某汽车制造商的售后维修AI助手,采用RAG前常混淆不同车型的维修流程(如将新能源车型的电池检测步骤套用在燃油车上),导致技师返工率高达35%。引入RAG后,系统实时调取各车型的最新维修手册、故障案例库,能精准匹配“车型+故障现象”,返工率骤降至6%,维修效率提升40%。
- 金融行业:某城商行的合规咨询AI,未用RAG时对2024年新出台的“小微企业贷款贴息政策”解读错误率达58%,甚至给出已废止的旧政策建议。接入RAG同步央行、银保监会的实时政策文档后,解读准确率提升至98%,合规风险事件从每月2起降至0起。
RAG的三大核心创新:重构AI的知识处理逻辑
- 知识解耦设计:将“知识存储”与“推理能力”彻底分离——知识模块(知识库)可独立更新(如新增产品手册、政策文件),无需重新训练推理模型(大模型)。就像手机APP更新无需更换操作系统,企业每周新增的业务文档,只需同步到知识库即可被AI调用,解决了大模型“更新慢、成本高”的痛点。
- 上下文工程优化:不是简单拼接检索结果,而是通过“相关性排序、信息去重、结构化重组”,将碎片化信息转化为大模型能高效利用的“作战情报”。例如某电商的RAG系统,会将“商品参数、用户评价、促销规则”按“核心卖点-用户关切-购买福利”的逻辑组织,让AI生成的推荐话术更贴合消费者需求。
- 闭环反馈机制:RAG系统能根据用户反馈(如“答案不准确”“信息不完整”)反向优化——若用户指出某回答引用错误,系统会标记对应知识库文档并重新训练检索模型,下次同类查询时优先排除错误信息。某政务AI助手通过此机制,3个月内回答准确率从72%提升到91%。
二、为什么RAG是企业AI的“必选项”?四大核心价值拆解
企业选择RAG,并非单纯追求技术潮流,而是其在“解决痛点、控制成本、保障安全、灵活扩展”四大维度,恰好契合了企业级应用的核心需求。
2.1 直击大模型的“四大致命缺陷”
大模型的“幻觉、过时、不专业、难追溯”问题,在企业场景中可能引发业务风险,而RAG正是针对性解药:
- 幻觉问题:某医疗AI问诊平台测试显示,纯GPT-4对慢性病用药建议的幻觉率(无依据结论)达18%,而接入RAG调用最新临床指南后,幻觉率降至2%以下,符合医疗行业对“零错误”的严苛要求。
- 知识过时:某在线教育平台用纯大模型做题库答疑时,对2024年新高考改革后的“综合评价招生政策”解析错误率42%,接入RAG同步教育部最新考纲和高校招生简章后,错误率降至5%,学生满意度提升60%。
- 领域不专业:某芯片设计公司的技术AI助手,未用RAG时对“7nm制程芯片的散热设计”解答正确率仅33%,接入企业内部的芯片研发文档库后,正确率提升至88%,工程师查阅资料的时间缩短70%。
- 可追溯性差:某保险公司的理赔AI,采用RAG前无法说明理赔金额的计算依据,用户投诉率25%;引入RAG后,每个理赔建议都标注对应的保险条款编号(如“《财产险条款》第12条”)和历史案例,投诉率降至4%。
2.2 成本效益的“最优解”:拒绝“天价模型训练”
很多企业初期会考虑“训练专属大模型”,但实际落地时会发现成本远超预期:某零售企业曾计划投入800万开发专属商品推荐模型,涵盖数据标注、算力租赁、模型调优三大环节,周期预计6个月;改用RAG后,仅用60万对接实时库存系统、用户消费数据和商品手册,3周内上线,推荐转化率反而提升18%。
两者成本对比更直观:
| 成本维度 | 专属大模型(百亿参数) | RAG系统 |
|---|---|---|
| 初期投入 | 500万-2000万元 | 30万-200万元 |
| 知识更新成本 | 每次更新需数十万算力费 | 文档同步即可,近零成本 |
| 维护周期 | 3-6个月/次更新 | 实时更新 |
| 人力成本 | 需专业算法团队维护 | 普通IT团队可运维 |
2.3 数据主权与合规:守住企业的“数据生命线”
在数据安全法规日益严格的当下,RAG的“数据不出域”架构成为企业刚需:
- 隐私保护:某社交平台将用户隐私数据(如聊天记录摘要、个性化偏好)存储在私有知识库,仅将脱敏后的检索结果(如“用户偏好短视频内容”)传入大模型,既避免原始数据泄露,又满足欧盟GDPR对数据本地化的要求。
- 细粒度权限:某集团企业的RAG系统,为不同层级员工设置知识库访问权限——一线销售只能调取产品报价和客户案例,区域经理可查看销售策略,CEO则获取行业分析和战略报告,实现“数据按需分配”。
- 审计追溯:某证券公司的RAG合规系统,会记录每一次检索的“文档来源、调用时间、使用场景”,监管部门检查时可一键导出审计日志,省去人工整理证据的繁琐流程。
2.4 灵活性与扩展性:适配企业的“动态需求”
企业业务场景多变,RAG的“模块化设计”能快速响应需求变化:
- 多场景复用:某物流企业的RAG系统,白天对接运输调度文档支撑客服问答(如“货物运输进度查询”),夜间切换到仓储管理知识库辅助库存盘点(如“货架补货优先级”),一套系统支撑两个核心场景,IT维护成本降低40%。
- 多模态支持:某家电制造商的RAG系统,不仅能检索文本手册,还能解析产品设计图纸(如“冰箱内部结构示意图”),工程师用自然语言查询“压缩机安装位置”时,系统会定位图纸中的对应区域并标注,维修效率提升50%。
- 快速接入新数据:某电商在“双十一”前7天,临时将供应商库存数据接入RAG系统,客服能实时告知用户“某商品仅剩50件,下单后24小时发货”,订单转化率提升12%,客诉率降低35%。
三、RAG工作原理:从“用户提问”到“精准回答”的全流程拆解
RAG的工作流程如同“精密的流水线”,每个环节环环相扣,共同决定最终回答的质量。我们以“某企业员工查询‘2024年Q3销售提成计算规则’”为例,拆解其完整链路。
3.1 第一步:查询理解与预处理——让AI“听懂”真实需求
用户的提问往往模糊、口语化(如“这个季度提成怎么算?”),RAG的第一步是将其转化为“精准的检索指令”,核心包含4个环节:

- 意图识别:判断用户需求类型——是“事实查询”(如“提成比例多少”)、“流程咨询”(如“提成申请步骤”)还是“异常处理”(如“提成未到账怎么办”)。上例中,用户意图为“事实查询+规则解读”。
- 实体标准化:提取提问中的关键实体并统一格式——“这个季度”对应“2024年Q3”,“提成”对应“销售提成(含新品奖励、回款奖励)”,避免因表述差异导致检索偏差(如“奖金”“佣金”统一为“提成”)。
- 查询扩展:补充同义词和相关维度——将“提成怎么算”扩展为“2024Q3销售提成计算规则、2024Q3销售提成公式、2024Q3销售提成例外情况”,覆盖潜在需求。
- 时间归一化:将相对时间转化为绝对时间——“这个季度”对应“2024年7月1日-2024年9月30日”,确保检索时过滤掉其他季度的规则文档。
某政务服务AI助手通过这套预处理流程,将“社保咋交”的模糊查询,转化为“2024年个人社保缴费渠道(线上/线下)、缴费标准(按工资基数比例)、缴费截止时间”的精准指令,用户办事效率提升50%。
3.2 第二步:知识检索——在“海量文档”中精准定位关键信息
检索不是“关键词匹配”,而是“语义理解+多策略融合”的过程,目前主流的混合检索策略能兼顾“召回率”(找得到)和“准确率”(找得对):

- 向量检索(Dense Retrieval):将用户查询和文档转化为高维向量,通过“语义相似度”匹配——即使用户说“Q3销售奖金计算方式”,也能匹配到“2024年Q3销售提成规则”文档,解决“表述不同但语义相同”的问题。
- 关键词检索(Sparse Retrieval):基于BM25等算法,对“2024Q3”“销售提成”等精准关键词加权,确保优先匹配包含核心术语的文档,避免语义泛化导致的偏差(如排除“2023Q3提成规则”)。
- 元数据过滤:利用文档的元数据(如“发布时间2024年8月”“归属部门销售部”)缩小检索范围,上例中仅检索“2024年7月后发布、销售部归属”的文档,检索速度提升10倍。
某电商的商品检索RAG系统,在向量检索基础上加入用户行为特征(如“用户历史购买家电品类”),将“夏季制冷家电”的检索精准度从70%提升到89%,避免推荐无关商品(如夏季风扇)。
3.3 第三步:上下文构建——给大模型“整理好的情报”
检索到相关文档后,需将碎片化信息“重组优化”,适配大模型的上下文窗口(如GPT-4的128K tokens),核心步骤包括:
- 重排序:用Cross-Encoder模型对检索结果打分,优先保留最相关的内容——上例中,“2024Q3销售提成计算细则(含公式)”排序第一,“2024Q2提成规则(参考)”排序靠后。
- 信息去重:删除重复或高度相似的内容——若两份文档都提到“新品提成额外加5%”,仅保留一处并标注来源。
- 结构化组织:将信息按逻辑拆分,如“核心规则(提成比例、计算基数)、例外情况(未达标业绩处理)、举例说明(某销售Q3提成计算示例)”,让大模型快速定位关键信息。
- 窗口适配:若信息超出大模型的上下文限制,通过“关键信息提取+冗余内容压缩”,确保核心信息不丢失——上例中,将10页的提成文档压缩为2页核心内容,同时保留计算示例。
3.4 第四步:增强生成——让AI“有理有据地回答”
有了优质上下文,还需通过Prompt工程引导大模型生成精准答案,核心原则包括:
- 明确指令:告知大模型“基于提供的Q3提成规则,计算某销售(业绩50万、新品销售10万)的提成金额,并标注计算依据”。
- 格式约束:要求输出结构化结果,如“一、提成计算依据(文档来源);二、计算步骤(公式+数据代入);三、最终金额”。
- 引用标注:每句话对应具体文档位置,如“新品提成额外加5%(来源:《2024Q3销售提成细则》第3条)”。
某法律咨询RAG系统通过此方法,生成的“劳动仲裁时效解答”不仅包含结论,还标注《劳动争议调解仲裁法》第27条原文,用户对答案可信度的认可度从65%提升到92%。
四、RAG技术栈:构建企业级系统的“核心组件”
搭建生产级RAG系统,需选择适配的技术组件,如同“组装高性能电脑”——CPU(向量数据库)、内存(Embedding模型)、硬盘(知识库)缺一不可。
4.1 向量数据库:RAG的“动力引擎”
向量数据库负责存储和检索高维向量,是RAG的核心基础设施,主流产品各有侧重:
| 向量数据库 | 核心优势 | 适用场景 | 典型案例 |
|---|---|---|---|
| Pinecone | 托管服务、易用性高 | 中小企业快速上线、无运维团队 | 某初创公司的客服RAG系统 |
| Milvus | 开源、支持多模态、亿级数据 | 大型企业、需自定义扩展 | 某安防企业的视频帧检索 |
| Weaviate | 支持语义搜索、实时更新 | 内容推荐、实时知识库 | 某新闻平台的资讯检索 |
| Qdrant | 轻量级、部署灵活 | 边缘计算场景、小规模数据 | 某制造业的车间AI助手 |

索引算法选择:不同算法适配不同场景——
- HNSW(分层导航小世界):召回率高(>95%),适合对精度要求高的场景(如医疗诊断),但内存占用大;
- IVF(倒排文件索引):内存效率高,适合亿级向量的大规模场景(如电商商品检索),但需提前聚类训练;
- LSH(局部敏感哈希):适合流式数据(如实时新增的新闻文档),但需大量哈希函数保证精度。
某社交媒体公司将索引从IVF升级到HNSW后,用户“相似内容推荐”的准确率从82%提升到96%,用户停留时长增加20%。
4.2 Embedding模型:将文本转化为“机器能懂的语言”
Embedding模型负责将文本(如文档、查询)转化为向量,其质量直接影响检索效果,选择时需关注“领域适配性”:

- 通用模型:如OpenAI的text-embedding-3-large、字节跳动的BGE-Large,适合通用场景(如企业通用文档问答);
- 领域模型:如医疗领域的BioBERT、金融领域的FinBERT,需通过领域数据微调——某能源企业用石油开采文档微调Embedding模型后,专业术语(如“页岩气开采压裂技术”)的检索召回率从72%提升到93%。
优化技巧:
- 向量量化:将Float32向量转为Int8,内存占用减少75%,检索速度提升4倍,精度损失<2%(大多数场景可接受);
- 多粒度Embedding:对短文本(如产品名称)用句级Embedding,对长文档(如技术手册)用段落级Embedding,兼顾精度和效率;
- 负采样训练:用“相似但不同”的样本(如“苹果手机”vs“苹果水果”)训练模型,提升区分能力。
4.3 知识库构建:RAG的“数据根基”
知识库的质量决定RAG的上限,需建立系统化的文档处理流程:
- 文档采集:对接企业内部系统(如OA、CRM、文档管理系统),支持多种格式(PDF、Word、Excel、图片)——某企业通过API对接Confluence,自动同步技术文档,减少人工上传成本80%;
- 智能分块:避免“一刀切”的固定长度分块,采用语义分块策略——对产品参数表按“参数类别-数值-说明”拆分,对维修手册按“故障现象-排查步骤-解决方案”拆分,某家电企业用此方法,用户查询“冰箱不制冷”的回答准确率提升3倍;
- 质量管控:通过MinHash算法去重,用人工审核(重点文档)+AI质检(普通文档)确保内容准确,某金融机构通过此机制,错误信息率从8%降至0.5%;
- 动态更新:建立优先级更新机制——P0(法规变更、安全漏洞)立即更新,P1(产品信息)1小时内更新,P2(文档格式优化)每日批处理。
4.4 评估与优化:让RAG“越用越聪明”
RAG需持续监控和优化,建立多维度评估体系:
| 评估维度 | 核心指标 | 优化方向 |
|---|---|---|
| 检索质量 | MRR(平均倒数排名)、Recall@k | 优化Embedding模型、调整检索策略 |
| 生成质量 | 准确率、幻觉率、可读性 | 优化Prompt、增强上下文构建 |
| 系统性能 | 响应时间、QPS、内存占用 | 加缓存、向量量化、索引优化 |
| 用户体验 | 问题解决率、用户满意度 | 优化查询理解、增加多轮对话支持 |
某银行的RAG系统通过A/B测试,对比“不同Embedding模型+不同分块大小”的组合,最终选择“BGE-Large+768 tokens分块”,MRR提升28%,响应时间缩短40%。
五、RAG优化进阶:从“能用”到“好用”的关键技巧
基础RAG能解决80%的问题,要达到生产级性能,需掌握高级优化策略。
5.1 混合检索升级:按“查询类型”动态调整策略
不同类型的查询需不同检索逻辑,实现“千人千面”的检索优化:
- 事实型查询(如“2024Q3提成比例”):提高关键词权重,优先精确匹配,返回简短答案;
- 解释型查询(如“为什么Q3提成比Q2低”):提高语义相似度权重,返回多维度原因(如“业绩未达标、新品奖励减少”);
- 比较型查询(如“Q2 vs Q3提成规则差异”):同时检索两个季度的文档,结构化展示差异点(如“Q3新增回款奖励”);
- 流程型查询(如“提成申请步骤”):按步骤排序返回,包含操作截图和注意事项。
某新闻资讯平台的RAG系统,对“最新俄乌冲突战况”(时效性查询)提高关键词检索(匹配发布时间)权重,对“俄乌冲突历史背景”(深度查询)提高向量检索权重,用户满意度提升25%。
5.2 查询改写增强:让“模糊提问”变“精准指令”
用户提问往往不精准,通过多策略改写提升检索效果:
- 同义词扩展:“提成”→“奖金、佣金、绩效奖励”;
- 错别字纠正:“提层”→“提成”,“Q3”→“三季度”;
- 意图补全:“提成怎么算”→“2024Q3销售提成计算规则(含新品奖励、回款奖励)”;
- LLM辅助改写:用大模型生成3-5个改写版本,如“某销售2024Q3业绩50万,提成如何计算?”“2024年第三季度销售提成的计算公式是什么?”。
某医疗AI助手对“孩子半夜发烧怎么办”的查询,通过改写覆盖“儿童夜间发热应急处理”“婴幼儿物理降温措施”“发烧超过38.5℃用药建议”,问题解决率提升30%。
5.3 动态知识更新:实现“实时同步+无缝切换”
静态知识库会快速过时,需建立增量索引架构:
- 增量更新流程:新文档→Embedding生成→增量写入索引→索引合并(避免碎片化);
- 蓝绿部署:蓝索引(当前在线)、绿索引(新版本),新版本测试通过后原子切换,切换时间<1秒,避免服务中断;
- 版本控制:保留文档历史版本,支持回滚——某疫苗研发企业的RAG系统,曾因误上传旧版临床试验数据导致回答错误,通过版本回滚10分钟内恢复正常。
5.4 性能优化:应对“高并发+大规模数据”
当RAG面对万级QPS时,需构建多级缓存架构:
- 结果缓存:缓存高频查询(如“公司考勤制度”)的答案,直接返回,响应时间从300ms降至50ms;
- 向量缓存:缓存近期检索过的文档向量,避免重复计算;
- 索引分片:将大索引拆分为多个分片(如按部门、按文档类型),并行检索,QPS提升5倍;
- GPU加速:用FAISS-GPU处理向量检索,速度提升10-50倍,适合超大规模数据场景。
总结:企业落地RAG的“四步行动指南”
RAG不是“技术炫技”,而是企业AI落地的“实用工具”。从技术选型到业务落地,建议遵循以下步骤:
- 场景聚焦:从边界清晰、价值明确的小场景切入(如客服问答、技术文档查询),避免“大而全”的盲目投入——某制造企业先落地“设备维修AI助手”,验证效果后再扩展到“生产工艺咨询”,成功率更高。
- 数据先行:优先梳理高质量知识库,重点解决“文档缺失、内容错误、格式混乱”问题——某企业通过3个月的文档整理,将知识库准确率从65%提升到92%,为RAG落地奠定基础。
- 快速迭代:采用“最小可行产品(MVP)+ 持续优化”模式,初期用开源组件(如Milvus+LangChain)快速上线,根据用户反馈调整策略——某互联网企业的RAG系统,通过10次迭代将回答准确率从70%提升到90%。
- 体验至上:技术最终服务于用户,需优化交互体验(如多轮对话、可视化引用来源、语音输入)——某企业的RAG助手支持“语音提问+图文答案”,一线员工使用满意度提升65%。
从金融合规到医疗诊断,从智能制造到教育培训,RAG正在重构企业利用AI的方式。未来,随着多模态RAG(支持图片、音频、视频)、Agent-RAG(结合智能体实现复杂任务)的发展,企业AI的应用边界将进一步拓宽——而现在,正是布局RAG的最佳时机。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


被折叠的 条评论
为什么被折叠?



