大模型要占你多少内存?这个神器一键测量,误差低至0.5MB,免费可用

明敏 发自 凹非寺
量子位 | 公众号 QbitAI

大模型训练推理要用多少内存?

打开这个网页一测便知,测量误差小至0.5MB。

88959794fdad08d727d3f43345115ed6.gif

比如模型bert-base-case Int8估计占用413.18 MB内存,实际占用为413.68MB相差0.5MB,误差仅有0.1%

5afe3493cae54f66961805959a1f1b77.png

操作也很简单,输入模型名称,选择数据类型即可。

4ad5f12421d98c10db5891719bfedf21.gif

这就是HuggingFace Space上的最新火起来‍工具——Model Memory Calculator,模型内存测量器,在网页端人人可体验。

要知道,跑大模型最头疼的问题莫过于:GPU内存够吗?

现在能先预估一波、误差很小,让不少人大呼“Great”!

c6aecd3544c393f94866a9d6d2109d05.png

实际推理内存建议多加20%

使用第一步,需要输入模型的名称。

目前支持搜索在HuggingFace Transformers库和TIMM库中的模型。

比如想要看GLM-6B的情况,可以输入“THUDM/chatglm-6b”。

a8b2d02ab5a6b850cda1892dcf947827.png

不过有一些模型会存在限制,需要获取API token后才能开始计算,比如Llama-2-7b。

df4e4df32e1688d0948b7577d67c9be4.png

我们找了几个大模型实测,可以看到当模型规模达到百亿参数后,内存要求被直线拉高。

b02beb6ab0ec6ff4be55c4b91c2c232d.png

基础版的BERT还是对GPU相当友好滴55afc515fe2f3134fd0a46012e39c11d.png

dfdb84475c49f157d28337731c17b6a3.png

而在实际推理过程,EleutherAI发现需要在预测数据基础上,预留20%的内存。具体举例如下:

3c25d4e2d290e7bdef9c3645537d35aa.png

作者小哥热衷开源项目

最后来介绍一下带来这个项目的小哥Zach Mueller

他本科毕业于西佛罗里达大学,主修软件设计与开发,热衷开源,在GitHub有1k粉丝。之前做过很多和Fast.ai框架有关的开源项目。

c33242cd69ccc86d29fc16f68f6caa33.png

传送门:
https://huggingface.co/spaces/hf-accelerate/model-memory-usage

「AIGC+垂直领域社群」

招募中!

欢迎关注AIGC的伙伴们加入AIGC+垂直领域社群,一起学习、探索、创新AIGC!

请备注您想加入的垂直领域「教育」或「广告营销」,加入AIGC人才社群请备注「人才」&「姓名-公司-职位」。

af83c1bcec7d91b059467c786140a5f6.png

点这里👇关注我,记得标星哦~

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值