本文系统介绍AI发展历程与分类,详解大语言模型训练方法、Token概念及Temperature与Top P参数等核心技术。探讨AI Chat的联网搜索、文件读取和记忆功能,分析中美AI发展差距与硬件限制,概述中国主要AI公司产品特点,为读者提供全面的大模型知识框架。
一、AI的分类
AI的核心目标是让机器能够执行通常需要人类智能的任务,例如语言理解、图像识别、复杂问题解决等。
-
早期阶段:以规则为基础的专家系统,依赖预设的逻辑和规则。 ——规则库
-
机器学习时代:通过数据训练模型,使机器能够从数据中学习规律。 ——几十、几百个参数
-
深度学习时代:利用神经网络模拟人脑的复杂结构,处理更复杂的任务。 ——几百万个参数
-
大模型时代:以大规模数据和算力为基础,构建通用性强、性能卓越的AI模型。——671b个参数(6710亿)
AI分类如下:

生成式AI:包括大语言模型(GPT、deepseek、千问),场景客服咨询、内容创作;生图/生视频模型(Sora、DALL-E、Midjourney),如进行产品设计、影视预览。
分析式AI:视觉识别模型(YOLO、ResNet),场景如智能制造、医疗影像分析,能准确辨别影像中的物体、人脸、文字等;自动驾驶模型(复合模型),场景如无人配送、高级辅助驾驶。
二、LLM是如何训练的
LLM的训练过程通俗的表述可以参考下图。早些时候是通过监督学习,明确告诉模型“香蕉是什么”;后来模型生成多个答案,人类通过来对答案进行优劣排序的方式训练模型;再后来,模型知道了一些人类的偏好,通过强化学习生成答案,人类通过一些打分机制,使模型进一步自我迭代进化。

早在2018年时GPT的参数量约为1.17亿,预训练数据量约5GB;2019年,GPT-2参数量为15亿,预训练数据量为40GB;2020年,GPT-3的参数量为1750亿,预训练数据为45TB。如今,GPT-5参数量预估约为100万亿。ChatGPT可以实现对用户真实意图的理解,上下文衔接能和及对知识和逻辑的理解能力。
在互联网时代诞生的APP功能越来越复杂,有限的屏幕难以呈现复杂的功能,未来APP极有可能演进为极简页面的对话形式,比如人们在淘宝对话框输入想要的穿搭风格,淘宝自动搜索相应的服装套件,并将其放入购物车。
三、LLM中的Token
Token是大型语言模型处理文本的最小单位。由于模型本身无法直接理解文字,因此需要将文本切分成一个个 Token,再将 Token转换为数字(向量)进行运算。
不同的模型使用不同的“分词器”(Tokenizer)来定义Token(不同模型中同样的文字编码不同)。 例如,对于英文Hello World: GPT-4o 会切分为[“Hello“, ”World“] => 对应的 token id = [13225, 5922] 。对于中文“人工智能你好啊”: DeepSeek-R1会切分为[“人工智能”, “你好”,“啊”] => 对应的token id = [33574, 30594, 3266]。
可以在科学上网模式下,通过https://tiktokenizer.vercel.app/ 查看token映射,例如“人工智能”,在deepseek中占一个token,而在GPT-4o中,则是“人工”和“智能”两个token。除了文本所占的token外,还有分隔符、起如符、结束符也会占用token。

四、Temperature 与Top P的作用
大模型生成文字的过程本质上是概率预测。大模型中的Temperature, Top P则通过调整选择不同概率的Token倾向,来控制 LLM 生成文本的多样性,但两者原理不同。
• Temperature (温度):
原理:在模型计算出下一个Token所有可能的概率分布后,Temperature会调整这个分布的“平滑度”。
高Temperature (如 1.0+):会让低概率的Token更容易被选中,使生成结果更具创造性,但可能出现不连贯的词语。
低Temperature (如 0.2):会让高概率的Token权重更大,使生成结果更稳定、更符合训练数据,但会更保守。
• Top P (核采样):
原理:它设定一个概率阈值(P),然后从高到低累加所有Token的概率,直到总和超过P为止。模型只会在这个累加出来的“核心”词汇表中选择下一个Token。
• 高Top P (如0.9):候选词汇表较大,结果更多样。
• 低Top P (如 0.1):候选词汇表非常小,结果更具确定性。
举个例子:
假设模型要完成句子:“今天天气真…”
模型预测的下一个词可能是:好(60%)、不错(30%)、糟(9%)、可乐(0.01%)。
高Temperature:会提升所有词的概率,使得“可乐”这个不相关的词也有机会被选中。
Top P (设为0.9):会选择概率总和达到90%的词。这里好(60%) + 不错(30%) = 90%,所以模型只会从“好”和“不错”中 选择,直接排除了“可乐”这种离谱的选项。
Temperature及Top P可以通过API进行设置。
参考:进入阿里云的dashscope(https://dashscope.console.aliyun.com/),dashscope网页->模型广场->(任选一个模型) API详情,然后找Temperature及Top P参数。


五、AI Chat产品的超能力——联网搜索、读取文件记忆功能
1、联网搜索
通过获取外部信息,弥补LLM训练数据截止日期的限制。
1)当用户提问涉及最新资讯时,系统会识别出这一需求,自动调用搜索工具,并将问题转化为多个简洁的搜索关键词。
2)程序调用搜索引擎API(如Google搜索)获取信息。
3)这些实时信息会作为上下文提供给模型,由模型进行总结和提炼,生成精准且与时俱进的回答。
2、读取文件
大模型一次会话窗口可以容纳32k的文字(大概3万多字),基于“检索增强生成”(Retrieval-Augmented Generation, RAG)的技术,大模型可以一次性读取多个文件(如10万字),并将关键信息提取放入窗口中,这样大模型一次性就可以读取超过32k的内容。
1)当你上传一个文件(如PDF、Word文档)时,系统首先会将其内容分割成小块(Chunks)。
2)通过Embedding技术将这些文本块转化为数学向量,并存储在专门的“向量数据库”中。
3)当你针对文件内容提问时,系统会将你的问题也转化为向量,并在数据库中快速找到最相关的文本块, 最后将这些文本块连同你的问题一起交给模型,生成答案。
比如,上传一份公司财报后,提问“第二季度的利润是多少?” RAG系统能精确定位到财报中相关的片段,让LLM直接使用。
RAG是一个LLM application,LLM看到了文件,发现文件大于 32k,于是调用了RAG能力(即:过滤内容,检索出来相关内容的能力)。
3、记忆能力
LLM本身是无状态的(无记忆能力),每次对话都是一次全新的互动,不记得之前的交流。
为了实现“记忆”,系统会在每次对话时,将最近的几轮问答作为背景信息拼接在一起发送给模型,称为**“短期记忆”或“上下文窗口”**。短期只能记住当前message + LLM response 不超过 32k 的内容。
对于需要长期记住的关键信息,例如你的名字或偏好,系统会通过特定算法提取这些信息,将其存储在用户专属的数据库中,在后续的对话中,系统会先从数据库中读取,为模型提供更个性化的背景知识。
比如,告诉AI“我喜欢简洁的回答风格”,系统会记录这一偏好。下次提问时,它就会倾向于给出更简练的答复。
六、全球AI发展现状
全球AI模型发展现状(中美对比):
-
美国:OpenAI、Anthropic、Google、Meta等公司主导前沿模型,如GPT-4o、Claude 4 Sonnet、Gemini 2.5 Flash。
-
中国:DeepSeek(如R1、V3)、阿里巴巴(如Qwen3)、Moonshot等公司快速追赶,部分模型(如Kimi K2, DeepSeek R1)已接近美国前沿水平。
-
关键趋势:中国模型在2024年显著缩小与美国的差距,尤其在推理模型和开源模型领域表现突出。
-
其他地区:法国(Mistral)、加拿大(Cohere)等也有前沿模型,但中美仍是主导力量。
七、出品限制与硬件影响
美国对华限制:
-
时间线:2022年10月首次限制(H100、A100),2023年10月升级(H800、A800受限),2025年1月新增“AI扩 散规则”。
-
当前状态:仅H20、L20等低性能芯片可出口中国,未来可能进一步收紧。
-
影响:中国依赖国产芯片(如华为昇腾)或降级版NVIDIA芯片(如H20,算力仅为H100的15%)。
硬件性能对比:
-
NVIDIA H100:989 TFLOPs,3.35 TB/s带宽。
-
NVIDIA H20:148 TFLOPs,4 TB/s带宽(专为中国市场设计)。
-
AMD MI300X:1307 TFLOPs,5.3 TB/s带宽(未受限制)。
八、中国AI公司概览
大科技公司:
-
阿里巴巴:通义千问(Qwen)系列,Qwen3
-
百度:文心一言(Ernie 4.0 Turbo)
-
腾讯:混元大模型(HunyuanLarge)
-
字节跳动:豆包(Doubao1.6 Pro)
-
华为:盘古5.0(Pangu 5.0 Large)
初创公司:
-
DeepSeek:R1、V3,开源模型表现优异。
-
Moonshot:Kimi K2,专注长上下文窗口。
-
MiniMax:Text-01,多模态能力突出。
-
其他:智谱AI(ChatGLM)、百川智能(Baichuan)等。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

1280

被折叠的 条评论
为什么被折叠?



