3140亿参数Grok-1推理加速3.8倍,高效易用的PyTorch+HuggingFace版来了

马斯克旗下xAI的3140亿参数MoE模型Grok-1开源,Colossal-AI团队提供了Python支持和性能优化,使得非Rust用户也能方便使用。Grok-1在Colossal-AI优化下,大幅提升了推理性能。更多信息可在GitHub和ModelScope获取。

由马斯克旗下大模型公司 xAI 开源的 3140 亿参数的混合专家(MoE)模型「Grok-1」,是当前参数量最大的开源大语言模型,并允许自由改动分发和商用。

Grok-1一经发布便在开源社区引发广泛关注,并登上GitHub热度榜单世界第一。

图片

Grok-1使用Rust+JAX构建,对于习惯Python + PyTorch + HuggingFace等主流软件生态的用户上手门槛高。

Colossal-AI团队第一时间进行跟进,提供方便易用的Python + PyTorch + HuggingFace Grok-1供AI开发者调用。

HuggingFace下载链接

https://huggingface.co/hpcai-tech/grok-1

ModelScope下载链接

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值