【技术变迁脉络解析】一文带你彻底搞懂 Transformer、Transformers、Hugging Face 与 huggingface-hub,以及发展历史

在这里插入图片描述

别再傻傻分不清!一文带你彻底搞懂 Transformer、Transformers、Hugging Face 与 huggingface-hub

关键词:Transformer、Transformers、Hugging Face、huggingface-hub、历史、区别


前言

刚入门大模型生态的同学,大概率会被下面几个名词绕晕:

  • Transformer(单数,首字母大写?小写?)
  • Transformers(复数,还带个 s?)
  • Hugging Face(公司?社区?库?)
  • huggingface-hub(又是什么鬼?)

今天这篇文章就带你从历史、定位、API、代码级别彻底梳理这四个概念,让你之后再也不会张冠李戴!


1. 四兄弟到底是谁?

名称本质一句话解释类比
Transformer一种神经网络架构2017 年 Google 论文提出的「自注意力」结构像「CNN」是一种卷积网络结构
Transformers一个Python 库Hugging Face 写的,用来加载、训练、推理各种 Transformer 模型像「torchvision」是 CNN 的工具箱
Hugging Face一家公司 / 社区 / 平台2016 年成立,提供 Hub、开源库、云计算像「GitHub」+「Docker Hub」的 AI 版
huggingface-hub另一个Python 库专门做「模型/数据/仓库」的上传、下载、版本管理像「git + Git LFS」的 SDK

2. 时间线:看历史,秒懂关系

2.1 简洁版

时间事件说明
2016-11Hugging Face 公司成立总部纽约,3 位创始人 Clement、Julien、Thomas,最早做 iOS 聊天机器人 App,名字叫 Hugging Face。
2017-06Transformer 架构论文发布Google 提出自注意力架构,奠定后续所有预训练模型的设计范式,引爆 NLP 界。
2018-10pytorch-pretrained-BERT 开源Hugging Face 首次将 BERT PyTorch 实现开源,成为 Transformers 库的前身。
2019-06pytorch-transformers 1.0改名并扩展支持 GPT、XLNet 等,仅 PyTorch 后端。
2019-10Transformers 2.0 发布正式定名Transformers(pip install transformers),同时支持 PyTorch 与 TensorFlow 2.x;论文获 EMNLP 最佳 Demo 奖。
2020-02Model Hub 上线Hugging Face 推出模型仓库,人人可上传/下载模型,支持 Git LFS 上传/下载。
2021-09huggingface-hub 0.1.0把“与 Hub 交互”的底层函数拆成独立包 huggingface_hub,提供下载/上传/搜索 API。
2022-12huggingface-hub 1.0 GA提供完整 Python/CLI,Transformers ≥4.21 默认依赖它。
2023-今生态分家治理Transformers 专注模型实现,huggingface-hub 专注仓库管理,各自独立发版。

2.2 详细版

时间事件关键细节 / 影响对应库/版本/里程碑
2016-11-15Hugging Face 公司成立总部纽约,三位创始人 Clément Delangue(CEO)、Julien Chaumond(CTO)、Thomas Wolf(CSO)最初做 iOS 聊天机器人 App,产品就叫 Hugging Face(App Store 可下载)。公司诞生
2017-06-12Transformer 论文发布Google 团队在 arXiv 发表《Attention Is All You Need》,首次提出完全基于注意力机制的编码器-解码器架构,引爆后续 NLP 研究。Transformer 架构诞生
2017-12-06TensorFlow 官方实现 tensor2tensor 开源Google 放出 t2t 0.1.0,让社区能复现 Transformer 实验。t2t 0.1.0
2018-06-15BERT 论文发布Google 提出双向编码器表示,刷新 11 项 NLP 基准。arXiv:1810.04805
2018-10-01pytorch-pretrained-BERT 0.1.0 开源Hugging Face 用纯 PyTorch 复现 BERT,支持一键加载 Google 权重;当时安装命令:pip install pytorch-pretrained-bert后来演进成 Transformers
2018-11-03GPT-1 权重公开OpenAI 放出 117 M 模型,社区开始对比 GPT vs BERT。
2019-02-14GPT-2 论文 & 代码OpenAI 发布 1.5 B 模型,因“太危险”先放出小模型。
2019-06-17pytorch-transformers 1.0.0库改名,新增 GPT、GPT-2、XLNet、XLM 支持,仍只支持 PyTorch。pip install pytorch-transformers
2019-07-29RoBERTa 开源Facebook 用更多数据、更大 batch、更长训练刷新 BERT 结果。
2019-09-04T5 paper & codeGoogle 提出「文本到文本统一框架」。
2019-10-29Transformers 2.0.0正式定名 transformers(小写、带 s),同时支持 PyTorch 与 TensorFlow 2.x;论文获 EMNLP 2019 最佳 Demo 奖。pip install transformers
2020-01-15DistilBERT 开源Hugging Face 自研 6 层蒸馏模型,参数 ↓40%,速度 ↑60%。
2020-02-27Model Hub Beta 上线网页端可浏览模型卡片;首次引入 Git LFS 托管权重;用户可 git clone 下载。hub.huggingface.co
2020-05-28GPT-3 论文175 B 参数,仅 API 发布,无权重。
2020-06-19Transformers 3.0.0加入 ProphetNet、BART、Pegasus、Longformer 等。
2020-07-30Tokenizers 0.8.0Rust 编写的高速分词器独立库,统一 BPE/WordPiece/Unigram。pip install tokenizers
2020-09-01Datasets 1.0.0一行代码加载 1000+ 公开数据集,支持流式、内存映射。pip install datasets
2020-10-28Transformers 3.5.0引入 Flax/JAX 后端,进入“三后端”时代(PT/TF/JAX)。
2020-12-15DeBERTa 开源微软提出解耦位置-内容注意力。
2021-03-15BigScience 启动Hugging Face 牵头 1000+ 研究员,训练 176 B 多语言 BLOOMbloom.huggingface.co
2021-04-15Accelerate 0.1.0分布式训练/推理封装,支持 DDP、DeepSpeed、TPU。pip install accelerate
2021-09-30huggingface-hub 0.1.0把“与 Hub 交互”的底层函数拆成独立库,提供 hf_hub_downloadRepository 等 API。pip install huggingface-hub
2021-11-10Transformers 4.12.0新增 Vision Transformer (ViT),正式跨模态。
2022-02-14Diffusers 0.1.0扩散模型工具箱,支持 DDPM/Stable Diffusion。pip install diffusers
2022-04-06OPT-175B 权重公开Meta 完全开源 175 B 参数及代码。
2022-05-15Gradio 2.9.0Hugging Face 收购 Gradio,一键把模型变网页 Demo。Spaces 诞生
2022-06-21Transformers 4.20.0同日支持 OPT-175B、BLOOM-176B,大模型时代正式到来。
2022-09-12LLaMA 1 开源Meta 7 B/13 B/33 B/65 B,非商用协议。
2022-10-31Model Hub GA引入私有仓库、组织权限、Webhook、模型卡模板。hub v1.0
2022-12-12huggingface-hub 0.11.01.0 功能完备:Python SDK + CLI + 断点续传 + 并发下载。
2023-01-30Transformers 4.26.0支持 Llama-2ChatGLMBLIP-2 等多语言/多模态。
**2023-05-0940 亿美元 B 轮融资A16z 领投,公司估值 45 亿美元,员工破 200。
2023-07-19Llama-2 官方集成Meta 与 Hugging Face 同步发布,Transformers 4.31.0 当日上线权重。
2023-10-17Inference Endpoints GA云端 GPU/CPU 一键推理,按秒计费。
2023-12-05PEFT 0.6.0LoRA/AdaLoRA/IA³ 轻量微调库,显存节省 3-10×。pip install peft
2024-02-15Transformers 4.38.0支持 GemmaStableLM-2Mixtral-8x7B 等最新开源权重。
2024-05-21TRL 0.8.0强化学习微调(PPO/DPO/ORPO)统一库。pip install trl
2024-07-09SmolLM 系列Hugging Face 自研 135 M/360 M/1.7 B 端侧小模型,Apache-2.0 授权。
2024-09-10收购 Pollen Robotics开源人形机器人 Reachy 2,进军 Embodied AI。
2024-11-14Transformers 4.45.0支持 Qwen2-VLMamba-2Phi-3.5,继续扩列。
2025-03-18huggingface-hub 0.24.0引入 hf_transfer Rust 后端,断点续传 + 并行下载速度提升 5-10×。
2025-06-30HF Endpoints Serverless GA按 token 计费的无服务器推理,支持自动扩缩容。
2025-07-24huggingface-hub 0.34.0集成Xet,通过hf_xet多线程高速下载,huggingface-cli更新为hf
2025-08-13Transformers 4.49.0支持 Llama-3.2 VisionNemotron-51B,本文截稿日最新稳定版。

3. 代码级对比:3 行代码分清 Transformers 与 huggingface-hub

3.1 Transformers:我只管“用”模型

from transformers import AutoTokenizer, AutoModel

tok = AutoTokenizer.from_pretrained("bert-base-chinese")
model = AutoModel.from_pretrained("bert-base-chinese")

背后确实调用了 huggingface-hub 去下载权重,但你无感。


3.2 huggingface-hub:我只管“管”模型

from huggingface_hub import hf_hub_download, upload_folder

# 下载单个文件
hf_hub_download(repo_id="bert-base-chinese", filename="config.json")

# 上传整个文件夹
upload_folder(repo_id="my-user/my-model", folder_path="./ckpt")

不关心模型结构,只关心文件在 Git LFS 仓库里的位置与版本。


4. 易混淆 FAQ

问题正解
Transformer 是 Hugging Face 的吗?❌,它是 Google 的论文架构。
Transformers 库只能跑 NLP 吗?❌,Vision、Audio、Multimodal 都支持。
huggingface-hub 和 Transformers 必须一起用?❌,可以单独用;Transformers 内部会自动调用 hub。
Hugging Face 只是做开源吗?❌,也卖付费推理、AutoTrain、私有 Hub 等云服务。

5. 一张思维导图收个尾

Hugging Face(公司/平台)
├── Transformers(跑模型的库)
│   └── 内部调用 huggingface-hub 下载权重
├── huggingface-hub(上传/下载/搜索 SDK)
├── Datasets(数据加载)
├── Tokenizers(分词加速)
├── Diffusers(扩散模型)
├── Gradio(交互式 Demo)
└── Inference Endpoints(付费推理)
Transformer(架构)
└── 被 Transformers 库实现为 BERT/GPT/T5…

6. 总结一句话

  • Transformer 是「设计图纸」
  • Transformers 是「发动机」
  • huggingface-hub 是「仓库搬运工」
  • Hugging Face 是「整座 AI 超级商场」

下次再有人问你它们的区别,直接把这篇文章甩给 TA!
如果对你有帮助,记得点赞收藏,评论区一起交流踩坑史~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

荔枝吻

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值