一、微调核心概念解析
1.1 大模型微调的本质
大模型微调是基于预训练模型的二次优化技术 —— 通过输入特定场景的标注数据重新训练,直接修改模型参数以适配目标任务。与 RAG(检索增强生成)、Agent(智能体)等通过工作流优化性能的方案不同,微调能让模型 “原生” 掌握特定能力,且优化效果可永久固化在模型中,无需依赖外部工具辅助。
1.2 全量微调与高效微调的核心差异
微调技术可分为两大核心流派,其适用场景与资源需求差异显著:
- 全量微调:对模型所有参数进行重新训练,需消耗海量算力和数据,但能深度改造模型能力,适用于对任务精度要求极高的场景(如专业领域科研模型)。
- 高效微调:仅针对性调整模型部分关键参数(如注意力层、适配器层),以 “轻量化” 方式实现能力优化,无需全量数据支撑,是当前工业界主流方案。
1.3 微调技术的优劣权衡
- 核心优势:参数级优化带来永久能力提升,模型在目标任务上的响应速度、准确性和适配性均优于非微调方案,且无需依赖外部知识库或工具链。
- 潜在风险:易引发 “灾难性遗忘”—— 若数据集设计不合理或训练策略不当,模型可能丢失预训练阶段习得的通用能力。因此需通过合理的数据集筛选、增量训练策略(如动态学习率调整)和多轮验证来规避风险。
二、高效微调关键技术:LoRA 与 QLoRA 深度解析
全量微调的高资源门槛(如 70B 模型全量微调需 200GB 以上显存)限制了其普及性,而高效微调技术通过参数优化策略,在降低资源消耗的同时保证性能,其中 LoRA 与 QLoRA 成为最主流的实现方案。
2.1 LoRA:低秩适配的轻量化微调方案
LoRA(Low-Rank Adaptation)通过引入低秩矩阵分解技术,在模型关键层(如 Transformer 的 Attention 层)插入小型适配器(Adapter),仅训练这些适配器参数而非原始模型权重。
-
技术原理:利用 “低秩假设”—— 模型在特定任务上的参数更新可通过两个低维矩阵的乘积近似表示,从而将需训练的参数量从数十亿级降至百万级。原始模型参数冻结,仅通过适配器层传递任务特异性信息。
-
核心优势 :
- 显存优化:相比全量微调,显存占用降低 80% 以上,7B 模型微调仅需 16GB 显存;
- 训练高效:减少计算量,训练速度提升 3-5 倍,支持快速迭代;
- 兼容性强:可无缝集成于 Hugging Face 生态,适配文本生成、分类、问答等多任务;
- 部署灵活:训练后的适配器可与原始模型合并部署,不增加推理延迟。
2.2 QLoRA:量化 + 低秩的极限资源优化方案
QLoRA(Quantized Low-Rank Adaptation)是 LoRA 的进阶版本,在低秩适配基础上引入权重量化技术,进一步突破显存限制。
- 核心创新:将原始模型权重量化为低精度格式(主流为 INT4/INT8),同时在适配器层采用 FP16 精度训练,通过 “量化存储 + 高精度计算” 平衡性能与资源消耗。例如,INT4 量化可将模型存储量压缩至原始 FP16 的 1/4。
- 量化技术价值:不仅降低显存占用,还能提升推理速度 —— 低精度权重的内存读取效率更高,尤其适用于边缘设备和云服务器低配置场景。
- 核心优势:支持在单卡 24GB 显存设备上微调 70B 模型,显存占用较 LoRA 再降 40%-50%;保持与 LoRA 相当的任务性能,仅在复杂推理任务中存在轻微精度损失。
2.3 LoRA 与 QLoRA 技术对比表
| 特性 | LoRA | QLoRA |
|---|---|---|
| 核心技术 | 低秩适配器(无量化) | 低秩适配器 + INT4/INT8 权重量化 |
| 显存需求 | 中等(7B 模型约 16GB) | 极低(7B 模型约 6GB,70B 模型约 48GB) |
| 适用场景 | 消费级 GPU(如 RTX4090)、中小模型 | 边缘设备、低显存 GPU、超大模型(70B+) |
| 训练复杂度 | 低(无需量化配置) | 中(需优化量化参数,避免精度损失) |
| 推理性能 | 无额外延迟 | 量化加速,推理速度提升 20%-30% |
| 任务适配性 | 通用任务表现优异 | 简单任务无差异,复杂推理需微调量化策略 |
补充说明:LoRA 技术已突破语言模型边界,在扩散模型(如 Stable Diffusion)的图像生成微调、多模态模型(如 CLIP)的跨模态适配中均表现出色;QLoRA 的量化策略需注意避免 “量化噪声”—— 建议通过校准数据集优化量化参数,确保关键信息不丢失。
三、高效微调的四大核心应用场景
高效微调通过 “小数据 + 轻量训练” 实现模型能力定制,已在多个行业场景中落地,核心应用集中在以下四大方向:
3.1 对话风格个性化定制
针对客服、虚拟助手、内容创作等场景,通过微调让模型适配特定语气和表达风格。例如:
-
电商客服场景:微调后模型采用专业且耐心的回复风格,自动解答订单查询、售后问题;
-
内容创作场景:适配小说写作、营销文案等风格,生成符合用户调性的文本;
-
教育场景:调整为启发式提问风格,引导学生自主思考解题。
关键在于构建高质量的风格示例数据集,包含 “用户输入 - 目标风格输出” 的精准映射。
3.2 垂直领域知识灌注
将行业专有知识快速融入模型,解决预训练模型 “知识盲区” 问题。例如:
-
法律领域:通过法条、案例数据集微调,让模型具备合同审查、法律问答能力;
-
医疗领域:基于医学文献、诊疗指南微调,辅助医生进行病症咨询(非诊断);
-
金融领域:融入行业术语、市场数据,实现投资咨询、财报分析等功能。
核心是确保数据集的权威性和准确性,建议结合领域专家审核,避免错误知识传递。
3.3 复杂推理能力强化
通过针对性数据集微调,提升模型在逻辑推理、数学计算、长文本分析等任务中的表现。例如:
-
数学解题:基于含详细步骤的数学题数据集,让模型掌握解题逻辑;
-
代码调试:通过代码错误案例、修复方案数据,提升模型的代码纠错能力;
-
长文本分析:微调后可快速提取长篇报告、论文的核心观点和逻辑脉络。
训练时需重点包含 “问题 - 中间推理过程 - 最终答案” 的完整数据,帮助模型学习推理链路。
3.4 Agent 智能体能力升级
在多任务协作、工具调用场景中,通过微调优化 Agent 的任务规划和执行能力。例如:
-
办公自动化 Agent:微调后可理解复杂指令,自动调用 Excel、邮件等工具完成数据统计、批量发送;
-
智能运维 Agent:学会解析监控告警信息,调用运维工具执行故障排查;
-
多模态 Agent:结合图像、文本数据微调,实现 “看图 + 理解 + 操作” 的跨模态任务。 数据集需包含工具调用格式、参数解析规则、多步骤任务流程示例,帮助模型掌握交互逻辑。
四、主流微调工具介绍
在入手学习大模型微调时,首先推荐功能层次封装层次较高的微调四套工具:unsloth、LlamaFactory、ms-SWIFT 和 ColossalAI。除此之外,也可以借助更加底层的库,如 peft、LoRA、transformer 等实现高效微调。对于初学者来说,首先使用现成工具来进行微调更为合适。
4.1 unsloth
unsloth 是一个专为大型语言模型(LLM)设计的动态量化与微调框架,旨在提高微调效率并减少显存占用。它通过手动推导计算密集型数学步骤并手写 GPU 内核,实现了无需硬件更改即可显著加快训练速度。

- GitHub 主页:https://github.com/unslothai/unsloth23。
- 性能表现:支持 Qwen3、Llama 4、Gemma 3 等多种模型,微调速度提升 2 倍,显存使用减少 70%-80% 等。
- 兼容性:与 HuggingFace 生态兼容,可以很容易地与 transformers、peft、trl 等库结合,以实现模型的监督微调(SFT)和直接偏好优化(DPO),仅需修改模型的加载方式,无需对现有训练代码进行修改。
- 核心优势:显著提升微调效率,采用独家 4bit 动态量化技术,节省时间成本;降低硬件要求,用户可在显存较小的 GPU 上进行大模型微调;开源免费,用户可在 Google Colab 或 Kaggle Notebooks 上免费试用。
4.2 LLama-Factory
LLaMA-Factory 是一个统一且高效的微调框架,旨在为超过 100 种大型语言模型(LLMs)和视觉语言模型(VLMs)提供便捷的微调支持。用户能够灵活地定制模型以适应各种下游任务。

- GitHub 主页:https://github.com/hiyouga/LLaMA-Factory30。
- 主要功能和特点:支持对 100 多 LLMs 和 VLMs 进行微调,包括最新模型版本;集成多种高效微调方法,提高训练速度并减少显存占用;支持音频识别、音频理解等多模态任务;提供丰富的实验监控工具;框架提供类似 OpenAI 风格的 API、Gradio UI 和命令行界面,结合 vLLM worker 实现高效推理能力。
4.3 ms-SWIFT
ms-swift(Scalable lightWeight Infrastructure for Fine-Tuning)是由魔搭社区(ModelScope)开发的高效微调和部署框架,旨在为研究人员和开发者提供一站式的大模型与多模态大模型的训练、推理、评测、量化和部署解决方案。

- GitHub 项目主页:https://github.com/modelscope/swift37。
- 模型支持:支持超过 450 种大型模型(LLMs)和 150 多种多模态大模型(MLLMs)的训练和部署,包括最新模型版本及多模态模型等。
- 技术特点:集成多种训练技术,满足不同微调需求;支持多种轻量级微调方法,降低显存和计算资源消耗;支持分布式训练技术,提升推理加速;提供多种量化方法,支持多种模态型训练;提供基于 Gradio 的 Web 界面,简化大模型全链路流程。
4.4 ColossalAI
Colossal-AI 是一个高效的分布式人工智能训练系统,旨在最大化提升人工智能训练效率,同时最小化训练成本。作为深度学习框架的内核,提供自动超高维并行、大规模优化库等前沿技术。

- GitHub 项目主页:https://github.com/hpcaitech/ColossalAI42。
- 优势表现:与英伟达的 Megatron-LM 相比,仅需一半数量的 GPU 即可完成 GPT-3 训练,半小时内预训练 ViT-Base/32,并在两天内训练完 15 亿参数的 GPT 模型。提供多种并行技术,如数据并行、流水线并行和张量并行,以加速模型训练。
- 特色:支持 DeepSeek R1 非量化模型高效微调,仅需 4 个节点、8 卡 A100 服务器即可完成 DeepSeek R1 高效微调44。
若是强化学习训练,则推荐veRL和OpenRLHF等框架。
4.5 其他微调框架

五、模型性能评估框架:EvalScope
项目地址:https://github.com/modelscope/evalscope45

EvalScope 是由阿里巴巴魔搭社区(ModelScope)推出的一款开源模型评估框架,旨在为大语言模型(LLM)和多模态模型提供统一、系统化的性能评估方案。该框架具备高度的自动化和可扩展性,适用于研究机构、工业界以及模型开发者在模型验证与性能对比场景中的广泛需求。
核心功能和特点
- 丰富的评测基准覆盖:内置多种权威评测数据集,涵盖中英文通用知识问答、数学推理、常识判断、代码生成等多个方向,支持多维度评估47。
- 多样的评估模式支持:提供单模型评估模式(Single)、基于基线的两两对比模式(Pairwise-Baseline)、全模型两两对比模式(Pairwise-All),满足不同使用场景。
- 统一的模型接入接口:对不同类型的模型提供统一调用方式,兼容 HuggingFace、本地部署模型及 API 远程调用,降低模型集成复杂度。
- 评估流程高度自动化:实现评测任务全自动执行,包括客观题自动打分、复杂问题使用评审模型辅助判定结果等,支持批量评估与日志记录。
- 完善的可视化工具:支持生成详细评估报告和图表,展示模型在不同任务维度下的表现,便于横向对比和性能分析。
- 多后端与评测能力扩展:可集成多个评测后端,支持从单模态到多模态、从语言建模到 RAG 端到端评测的全链路能力。
- 支持部署性能测试:提供服务端推理性能测试工具,涵盖吞吐量、响应时延等关键指标,帮助评估模型部署实用性。
六、微调所需软硬件环境说明
大模型微调属于大模型进阶类技术,不同于普通的模型对话或搭建基础应用,微调往往需要一定的软硬件条件支持。
6.1 硬件要求
不同尺寸模型、不同精度微调时所需显存不同,以下是相关参考:
| 模型尺寸 | Freeze (FP16) 显存需求 (GB) | LoRA (FP16) 显存需求 (GB) | QLORA (INT8) 显存需求 (GB) | QLORA (INT4) 显存需求 (GB) | 推荐硬件配置 |
|---|---|---|---|---|---|
| 7B | 20 | 16 | 10 | 6 | RTX4090、RTX4080、RTX3060 |
| 13B | 40 | 32 | 20 | 12-13 | RTX 4090/A100 (40GB)、L40(48GB) |
| 30B | 80 | 64 | 40 | 24 | A100 (80GB)、RTX4090 |
| 70B | 200 | 160 | 80 | 48 | H100 (80GB)、L40(48GB) |
| 110B | 360 | 240 | 140 | 72 | H100(80GB)*5、H100(80GB)*2、A10 (24GB)*3 |
其中 RTX4090 可等价替换为 RTX3090;A100 可替换为 A800(国内特供);L40 可替换为 L20(国内特供)56575859。
6.2 Qwen3 系列模型微调显存占用
| 模型名称 | 参数量 | FP16 微调显存占用 | 4-bit 动态量化微调显存占用 | 备注 |
|---|---|---|---|---|
| Qwen3-0.6B | 0.6B | ~1.2 GB | ~0.5 GB | 可在低端 GPU 或 CPU 上运行 |
| Qwen3-1.7B | 1.7B | ~3.4 GB | ~1.5 GB | 适合入门级部署 |
| Qwen3-4B | 4B | ~8.0 GB | ~3.5 GB | 适合中等规模任务 |
| Qwen3-8B | 8B | ~16.0 GB | ~7.0 GB | 需要高端消费级 GPU |
| Qwen3-14B | 14B | ~28.0 GB | ~12.0 GB | 可在单张 RTX 4090 上微调 |
| Qwen3-30B- A3B (MoE) | 激活参数约 3B | ~85.0 GB | 暂不支持 | 激活部分专家参数,资源需求较高 |
| Qwen3-32B | 32B | ~65.0 GB | ~32.0 GB | 需要 A100/H100 或多卡并行 |
| Qwen3-235B- A22B (MoE) | 激活参数约 22B | ~600 GB | 暂不支持 | 超大模型,适合企业级部署,需高端服务器支持 |
注 1:CPU 不能进行微调;
注 2:目前 MoE 模型只支持 4bit 普通量化微调,暂不支持动态量化微调。
七、准备微调数据集
在大模型微调流程中,数据集的质量直接决定微调效果。尤其是当模型需要具备复杂功能(如 Function calling、混合推理)或特定领域知识时,手动创建或优化数据集至关重要。以下是基于 Qwen3 模型微调的数据集准备方法:
7.1 理解数据集构造的底层原理
模型通过特殊字符标记识别输入类型、系统提示和输出边界,因此数据集需遵循模型的格式规范。以 Qwen3 为例,其核心特殊标记如下:
<|im_start|>:标记文本开始,后跟角色(如user/assistant/system)<|im_end|>:标记文本结束
例如,简单对话的实际输入输出格式为:
<|im_start|>user
你好!<|im_end|>
<|im_start|>assistant
你好呀,很高兴见到你!<|im_end|>
这些标记可在模型的tokenizer_config.json文件中查看完整定义。
7.2 常见微调数据集格式详解
7.2.1 基础问答格式(Alpaca 风格)
适用于简单指令微调,包含instruction(指令)、input(输入)和output(输出)三个核心字段。例如:
{
"instruction": "识别并解释给定的科学理论",
"input": "细胞理论",
"output": "细胞理论是生物科学的基础理论,认为所有生命体由细胞构成,细胞是生物的基本结构和功能单位。"
}
微调时,脚本会自动将其转换为 Qwen3 兼容的标记格式:
<|im_start|>user
识别并解释给定的科学理论:细胞理论<|im_end|>
<|im_start|>assistant
细胞理论是生物科学的基础理论...<|im_end|>
7.2.1 带系统提示和 Function calling 的格式
若需提升模型的工具调用能力,数据集需包含系统提示、工具定义和调用示例。例如:系统提示:明确工具调用规则工具定义:通过<tools>标签描述函数参数对话示例:
<|im_start|>system
你是天气助手,查询天气时需调用get_weather函数。
<tools>[{"name":"get_weather","parameters":{"location":"城市名称"}}]</tools>
<|im_end|>
<|im_start|>user
北京天气如何?<|im_end|>
<|im_start|>assistant
<tool_call>{"name":"get_weather","arguments":{"location":"北京"}}</tool_call><|im_end|>
需注意:高效微调仅能优化现有 Function calling 能力,无法让模型从无到有学会该功能。
7.2.3 带思考过程的格式
为提升模型推理能力(如数学解题、逻辑分析),数据集需包含中间思考步骤,用特殊标记(如<|think|>)分隔思考过程与最终输出。例如:
<|im_start|>system
你是数学助手,需展示解题步骤。<|im_end|>
<|im_start|>user
计算3+5×2的结果。<|im_end|>
<|im_start|>assistant
<think>用户问的是3加5乘2,先算乘法再算加法,5乘2等于10,再加3就是13。</think>3+5×2=3+10=13<|im_end|>
模型会通过学习思考过程与最终答案的关联,提升推理逻辑性。
7.3 Qwen3 混合推理模型的数据集构造方法
为确保 Qwen3 在微调后保留混合推理能力,需采用 “多数据集拼接” 策略,核心步骤如下:
7.3.1. 选择基础数据集
- 普通对话数据:如
FineTome-100k(含 10 万条多轮对话,ShareGPT 风格),用于保留模型的自然交互能力。 - 推理类数据:如
OpenMathReasoning(含 54 万道数学题及详细解题步骤),用于强化逻辑推理能力。
7.3.2 数据集配比调整
需根据微调目标平衡不同类型数据的比例:
- 若侧重数学推理:可按 7:3 比例混合
OpenMathReasoning与FineTome-100k - 若需均衡能力:建议按 5:5 比例混合,避免模型过度偏向单一任务。
7.3.3 格式统一与清洗
- 确保所有数据转换为 Qwen3 兼容的标记格式(含
<|im_start|>``<|im_end|>等)。 - 过滤重复样本、错误标注和低质量内容,避免模型学习噪声数据。
7.4 数据集获取与组装渠道
开源数据集
- 直接从 Hugging Face、ModelScope 下载,如:
mlabonne/FineTome-100k(通用对话)nvidia/OpenMathReasoning(数学推理)
手动创建
- 针对特定领域(如法律、医疗),可结合专业文档编写问答对,确保知识准确性。
格式转换
- 使用工具将原始数据转换为目标格式,例如用 Python 脚本批量添加 Qwen3 的特殊标记。
通过以上方法构建的数据集,能让 Qwen3 在微调后既保留原有能力,又针对性提升目标任务性能。
如今技术圈降薪裁员频频爆发,传统岗位大批缩水,相反AI相关技术岗疯狂扩招,薪资逆势上涨150%,大厂老板们甚至开出70-100W年薪,挖掘AI大模型人才!
技术的稀缺性,才是你「值钱」的关键!
具备AI能力的程序员,比传统开发高出不止一截!有的人早就转行AI方向,拿到百万年薪!👇🏻👇🏻

是不是也想抓住这次风口,但卡在 “入门无门”?
- 小白:想学大模型,却分不清 LLM、微调、部署,不知道从哪下手?
- 传统程序员:想转型,担心基础不够,找不到适配的学习路径?
- 求职党:备考大厂 AI 岗,资料零散杂乱,面试真题刷不完?
别再浪费时间踩坑!2025 年最新 AI 大模型全套学习资料已整理完毕,不管你是想入门的小白,还是想转型的传统程序员,这份资料都能帮你少走 90% 的弯路
👇👇扫码免费领取全部内容👇👇

部分资料展示
一、 AI大模型学习路线图,厘清要学哪些
一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:大模型核心原理与Prompt

L1阶段: 将全面介绍大语言模型的基本概念、发展历程、核心原理及行业应用。从A11.0到A12.0的变迁,深入解析大模型与通用人工智能的关系。同时,详解OpenAl模型、国产大模型等,并探讨大模型的未来趋势与挑战。此外,还涵盖Pvthon基础、提示工程等内容。
目标与收益:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为AI应用开发打下坚实基础。
L2级别:RAG应用开发工程

L2阶段: 将深入讲解AI大模型RAG应用开发工程,涵盖Naive RAGPipeline构建、AdvancedRAG前治技术解读、商业化分析与优化方案,以及项目评估与热门项目精讲。通过实战项目,提升RAG应用开发能力。
目标与收益: 掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
L3级别:Agent应用架构进阶实践

L3阶段: 将 深入探索大模型Agent技术的进阶实践,从Langchain框架的核心组件到Agents的关键技术分析,再到funcation calling与Agent认知框架的深入探讨。同时,通过多个实战项目,如企业知识库、命理Agent机器人、多智能体协同代码生成应用等,以及可视化开发框架与IDE的介绍,全面展示大模型Agent技术的应用与构建。
目标与收益:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
L4级别:模型微调与私有化大模型

L4级别: 将聚焦大模型微调技术与私有化部署,涵盖开源模型评估、微调方法、PEFT主流技术、LORA及其扩展、模型量化技术、大模型应用引警以及多模态模型。通过chatGlM与Lama3的实战案例,深化理论与实践结合。
目标与收益:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
二、 全套AI大模型应用开发视频教程
从入门到进阶这里都有,跟着老师学习事半功倍。

三、 大模型学习书籍&文档
收录《从零做大模型》《动手做AI Agent》等经典著作,搭配阿里云、腾讯云官方技术白皮书,帮你夯实理论基础。

四、 AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

五、大模型大厂面试真题
整理了百度、阿里、字节等企业近三年的AI大模型岗位面试题,涵盖基础理论、技术实操、项目经验等维度,每道题都配有详细解析和答题思路,帮你针对性提升面试竞争力。

六、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1207

被折叠的 条评论
为什么被折叠?



