
目录
别再傻傻分不清!一文带你彻底搞懂 Transformer、Transformers、Hugging Face 与 huggingface-hub
关键词:Transformer、Transformers、Hugging Face、huggingface-hub、历史、区别
前言
刚入门大模型生态的同学,大概率会被下面几个名词绕晕:
- Transformer(单数,首字母大写?小写?)
- Transformers(复数,还带个 s?)
- Hugging Face(公司?社区?库?)
- huggingface-hub(又是什么鬼?)
今天这篇文章就带你从历史、定位、API、代码级别彻底梳理这四个概念,让你之后再也不会张冠李戴!
1. 四兄弟到底是谁?
| 名称 | 本质 | 一句话解释 | 类比 |
|---|---|---|---|
| Transformer | 一种神经网络架构 | 2017 年 Google 论文提出的「自注意力」结构 | 像「CNN」是一种卷积网络结构 |
| Transformers | 一个Python 库 | Hugging Face 写的,用来加载、训练、推理各种 Transformer 模型 | 像「torchvision」是 CNN 的工具箱 |
| Hugging Face | 一家公司 / 社区 / 平台 | 2016 年成立,提供 Hub、开源库、云计算 | 像「GitHub」+「Docker Hub」的 AI 版 |
| huggingface-hub | 另一个Python 库 | 专门做「模型/数据/仓库」的上传、下载、版本管理 | 像「git + Git LFS」的 SDK |
2. 时间线:看历史,秒懂关系
2.1 简洁版
| 时间 | 事件 | 说明 |
|---|---|---|
| 2016-11 | Hugging Face 公司成立 | 总部纽约,3 位创始人 Clement、Julien、Thomas,最早做 iOS 聊天机器人 App,名字叫 Hugging Face。 |
| 2017-06 | Transformer 架构论文发布 | Google 提出自注意力架构,奠定后续所有预训练模型的设计范式,引爆 NLP 界。 |
| 2018-10 | pytorch-pretrained-BERT 开源 | Hugging Face 首次将 BERT PyTorch 实现开源,成为 Transformers 库的前身。 |
| 2019-06 | pytorch-transformers 1.0 | 改名并扩展支持 GPT、XLNet 等,仅 PyTorch 后端。 |
| 2019-10 | Transformers 2.0 发布 | 正式定名Transformers(pip install transformers),同时支持 PyTorch 与 TensorFlow 2.x;论文获 EMNLP 最佳 Demo 奖。 |
| 2020-02 | Model Hub 上线 | Hugging Face 推出模型仓库,人人可上传/下载模型,支持 Git LFS 上传/下载。 |
| 2021-09 | huggingface-hub 0.1.0 | 把“与 Hub 交互”的底层函数拆成独立包 huggingface_hub,提供下载/上传/搜索 API。 |
| 2022-12 | huggingface-hub 1.0 GA | 提供完整 Python/CLI,Transformers ≥4.21 默认依赖它。 |
| 2023-今 | 生态分家治理 | Transformers 专注模型实现,huggingface-hub 专注仓库管理,各自独立发版。 |
2.2 详细版
| 时间 | 事件 | 关键细节 / 影响 | 对应库/版本/里程碑 |
|---|---|---|---|
| 2016-11-15 | Hugging Face 公司成立 | 总部纽约,三位创始人 Clément Delangue(CEO)、Julien Chaumond(CTO)、Thomas Wolf(CSO)最初做 iOS 聊天机器人 App,产品就叫 Hugging Face(App Store 可下载)。 | 公司诞生 |
| 2017-06-12 | Transformer 论文发布 | Google 团队在 arXiv 发表《Attention Is All You Need》,首次提出完全基于注意力机制的编码器-解码器架构,引爆后续 NLP 研究。 | Transformer 架构诞生 |
| 2017-12-06 | TensorFlow 官方实现 tensor2tensor 开源 | Google 放出 t2t 0.1.0,让社区能复现 Transformer 实验。 | t2t 0.1.0 |
| 2018-06-15 | BERT 论文发布 | Google 提出双向编码器表示,刷新 11 项 NLP 基准。 | arXiv:1810.04805 |
| 2018-10-01 | pytorch-pretrained-BERT 0.1.0 开源 | Hugging Face 用纯 PyTorch 复现 BERT,支持一键加载 Google 权重;当时安装命令:pip install pytorch-pretrained-bert。 | 后来演进成 Transformers |
| 2018-11-03 | GPT-1 权重公开 | OpenAI 放出 117 M 模型,社区开始对比 GPT vs BERT。 | — |
| 2019-02-14 | GPT-2 论文 & 代码 | OpenAI 发布 1.5 B 模型,因“太危险”先放出小模型。 | — |
| 2019-06-17 | pytorch-transformers 1.0.0 | 库改名,新增 GPT、GPT-2、XLNet、XLM 支持,仍只支持 PyTorch。 | pip install pytorch-transformers |
| 2019-07-29 | RoBERTa 开源 | Facebook 用更多数据、更大 batch、更长训练刷新 BERT 结果。 | — |
| 2019-09-04 | T5 paper & code | Google 提出「文本到文本统一框架」。 | — |
| 2019-10-29 | Transformers 2.0.0 | 正式定名 transformers(小写、带 s),同时支持 PyTorch 与 TensorFlow 2.x;论文获 EMNLP 2019 最佳 Demo 奖。 | pip install transformers |
| 2020-01-15 | DistilBERT 开源 | Hugging Face 自研 6 层蒸馏模型,参数 ↓40%,速度 ↑60%。 | — |
| 2020-02-27 | Model Hub Beta 上线 | 网页端可浏览模型卡片;首次引入 Git LFS 托管权重;用户可 git clone 下载。 | hub.huggingface.co |
| 2020-05-28 | GPT-3 论文 | 175 B 参数,仅 API 发布,无权重。 | — |
| 2020-06-19 | Transformers 3.0.0 | 加入 ProphetNet、BART、Pegasus、Longformer 等。 | — |
| 2020-07-30 | Tokenizers 0.8.0 | Rust 编写的高速分词器独立库,统一 BPE/WordPiece/Unigram。 | pip install tokenizers |
| 2020-09-01 | Datasets 1.0.0 | 一行代码加载 1000+ 公开数据集,支持流式、内存映射。 | pip install datasets |
| 2020-10-28 | Transformers 3.5.0 | 引入 Flax/JAX 后端,进入“三后端”时代(PT/TF/JAX)。 | — |
| 2020-12-15 | DeBERTa 开源 | 微软提出解耦位置-内容注意力。 | — |
| 2021-03-15 | BigScience 启动 | Hugging Face 牵头 1000+ 研究员,训练 176 B 多语言 BLOOM。 | bloom.huggingface.co |
| 2021-04-15 | Accelerate 0.1.0 | 分布式训练/推理封装,支持 DDP、DeepSpeed、TPU。 | pip install accelerate |
| 2021-09-30 | huggingface-hub 0.1.0 | 把“与 Hub 交互”的底层函数拆成独立库,提供 hf_hub_download、Repository 等 API。 | pip install huggingface-hub |
| 2021-11-10 | Transformers 4.12.0 | 新增 Vision Transformer (ViT),正式跨模态。 | — |
| 2022-02-14 | Diffusers 0.1.0 | 扩散模型工具箱,支持 DDPM/Stable Diffusion。 | pip install diffusers |
| 2022-04-06 | OPT-175B 权重公开 | Meta 完全开源 175 B 参数及代码。 | — |
| 2022-05-15 | Gradio 2.9.0 | Hugging Face 收购 Gradio,一键把模型变网页 Demo。 | Spaces 诞生 |
| 2022-06-21 | Transformers 4.20.0 | 同日支持 OPT-175B、BLOOM-176B,大模型时代正式到来。 | — |
| 2022-09-12 | LLaMA 1 开源 | Meta 7 B/13 B/33 B/65 B,非商用协议。 | — |
| 2022-10-31 | Model Hub GA | 引入私有仓库、组织权限、Webhook、模型卡模板。 | hub v1.0 |
| 2022-12-12 | huggingface-hub 0.11.0 | 1.0 功能完备:Python SDK + CLI + 断点续传 + 并发下载。 | — |
| 2023-01-30 | Transformers 4.26.0 | 支持 Llama-2、ChatGLM、BLIP-2 等多语言/多模态。 | — |
| **2023-05-09 | 40 亿美元 B 轮融资 | A16z 领投,公司估值 45 亿美元,员工破 200。 | — |
| 2023-07-19 | Llama-2 官方集成 | Meta 与 Hugging Face 同步发布,Transformers 4.31.0 当日上线权重。 | — |
| 2023-10-17 | Inference Endpoints GA | 云端 GPU/CPU 一键推理,按秒计费。 | — |
| 2023-12-05 | PEFT 0.6.0 | LoRA/AdaLoRA/IA³ 轻量微调库,显存节省 3-10×。 | pip install peft |
| 2024-02-15 | Transformers 4.38.0 | 支持 Gemma、StableLM-2、Mixtral-8x7B 等最新开源权重。 | — |
| 2024-05-21 | TRL 0.8.0 | 强化学习微调(PPO/DPO/ORPO)统一库。 | pip install trl |
| 2024-07-09 | SmolLM 系列 | Hugging Face 自研 135 M/360 M/1.7 B 端侧小模型,Apache-2.0 授权。 | — |
| 2024-09-10 | 收购 Pollen Robotics | 开源人形机器人 Reachy 2,进军 Embodied AI。 | — |
| 2024-11-14 | Transformers 4.45.0 | 支持 Qwen2-VL、Mamba-2、Phi-3.5,继续扩列。 | — |
| 2025-03-18 | huggingface-hub 0.24.0 | 引入 hf_transfer Rust 后端,断点续传 + 并行下载速度提升 5-10×。 | — |
| 2025-06-30 | HF Endpoints Serverless GA | 按 token 计费的无服务器推理,支持自动扩缩容。 | — |
| 2025-07-24 | huggingface-hub 0.34.0 | 集成Xet,通过hf_xet多线程高速下载,huggingface-cli更新为hf | — |
| 2025-08-13 | Transformers 4.49.0 | 支持 Llama-3.2 Vision、Nemotron-51B,本文截稿日最新稳定版。 | — |
3. 代码级对比:3 行代码分清 Transformers 与 huggingface-hub
3.1 Transformers:我只管“用”模型
from transformers import AutoTokenizer, AutoModel
tok = AutoTokenizer.from_pretrained("bert-base-chinese")
model = AutoModel.from_pretrained("bert-base-chinese")
背后确实调用了 huggingface-hub 去下载权重,但你无感。
3.2 huggingface-hub:我只管“管”模型
from huggingface_hub import hf_hub_download, upload_folder
# 下载单个文件
hf_hub_download(repo_id="bert-base-chinese", filename="config.json")
# 上传整个文件夹
upload_folder(repo_id="my-user/my-model", folder_path="./ckpt")
不关心模型结构,只关心文件在 Git LFS 仓库里的位置与版本。
4. 易混淆 FAQ
| 问题 | 正解 |
|---|---|
| Transformer 是 Hugging Face 的吗? | ❌,它是 Google 的论文架构。 |
| Transformers 库只能跑 NLP 吗? | ❌,Vision、Audio、Multimodal 都支持。 |
| huggingface-hub 和 Transformers 必须一起用? | ❌,可以单独用;Transformers 内部会自动调用 hub。 |
| Hugging Face 只是做开源吗? | ❌,也卖付费推理、AutoTrain、私有 Hub 等云服务。 |
5. 一张思维导图收个尾
Hugging Face(公司/平台)
├── Transformers(跑模型的库)
│ └── 内部调用 huggingface-hub 下载权重
├── huggingface-hub(上传/下载/搜索 SDK)
├── Datasets(数据加载)
├── Tokenizers(分词加速)
├── Diffusers(扩散模型)
├── Gradio(交互式 Demo)
└── Inference Endpoints(付费推理)
Transformer(架构)
└── 被 Transformers 库实现为 BERT/GPT/T5…
6. 总结一句话
- Transformer 是「设计图纸」
- Transformers 是「发动机」
- huggingface-hub 是「仓库搬运工」
- Hugging Face 是「整座 AI 超级商场」
下次再有人问你它们的区别,直接把这篇文章甩给 TA!
如果对你有帮助,记得点赞收藏,评论区一起交流踩坑史~

8342

被折叠的 条评论
为什么被折叠?



