- Hugging Face (HF) - 国际主流
网址: https://huggingface.co
介绍: 全球最大的AI模型社区和托管平台,几乎所有知名的开源模型(如 LLaMA/LLaMA 2, Mistral, Stable Diffusion, Whisper, BERT 等)都会在此首发。虽然它是国际网站,但在国内大多数情况下可以访问,速度可能不太稳定。
技巧: 可以使用 huggingface-cli 命令行工具或 snapshot_download 功能下载,支持断点续传,对网络不稳定的情况很友好。Huggingface国内代理网址:https://hf-mirror.com/
- ModelScope(魔搭社区)- 国内首选
网址: https://www.modelscope.cn
介绍: 由阿里巴巴达摩院推出的中文模型社区,是国内目前最活跃的AI模型平台。它对国内网络非常友好,下载速度极快。汇集了众多国内顶尖公司和机构的中文模型,如通义千问(Qwen)、百川(Baichuan)、ChatGLM、智谱AI(Zhipu)等。
强烈推荐:如果你主要关注中文大模型,魔搭是你的不二之选。它提供了完善的Python库和教程,方便一键加载和运行模型。

- OpenI 启智社区
网址: https://openi.pcl.ac.cn/
介绍: 由鹏城实验室牵头建设的人工智能开源开放平台。也托管了大量国产开源模型,特别是在科研领域和国产算力平台(如昇腾)上的模型资源丰富。是另一个重要的国内模型获取来源。

- 三大平台对比:
| 平台名称 | 网址 | 主要特点 | 国内访问友好度 |
|---|---|---|---|
| ModelScope(魔搭) | modelscope.cn | 中文模型最全,国产大模型聚集地,下载快 | 极佳 |
| Hugging Face | huggingface.co | 全球最大,模型数量最多,更新最快 | 一般(需稳定网络) |
| OpenI 启智社区 | openi.pcl.ac.cn | 科研模型多,支持国产算力 | 佳 |
- pip源:https://mirrors.tuna.tsinghua.edu.cn/help/pypi/
- conda源:https://mirrors.tuna.tsinghua.edu.cn/help/anaconda/
本地部署硬件要求:
- 7B 模型:建议 RTX 3060(8GB 显存)以上。
- 70B 模型:需 RTX 4090(24GB 显存)或多卡并联。
- 超长上下文模型(如 MiniMax-M1):建议 H800/H20 GPU,支持更大显存带宽
10万+

被折叠的 条评论
为什么被折叠?



