由马斯克旗下大模型公司 xAI 开源的 3140 亿参数的混合专家(MoE)模型「Grok-1」,是当前参数量最大的开源大语言模型,并允许自由改动分发和商用。
Grok-1一经发布便在开源社区引发广泛关注,并登上GitHub热度榜单世界第一。

但Grok-1使用Rust+JAX构建,对于习惯Python + PyTorch + HuggingFace等主流软件生态的用户上手门槛高。
Colossal-AI团队第一时间进行跟进,提供方便易用的Python + PyTorch + HuggingFace Grok-1供AI开发者调用。
HuggingFace下载链接
https://huggingface.co/hpcai-tech/grok-1
ModelScope下载链接

马斯克旗下xAI的3140亿参数MoE模型Grok-1开源,Colossal-AI团队提供了Python支持和性能优化,使得非Rust用户也能方便使用。Grok-1在Colossal-AI优化下,大幅提升了推理性能。更多信息可在GitHub和ModelScope获取。
最低0.47元/天 解锁文章
9万+

被折叠的 条评论
为什么被折叠?



