
大模型
文章平均质量分 65
zhuikefeng
人工智能爱好者
展开
-
tensorrt-llm知识
【代码】tensorrt-llm知识。原创 2024-07-19 11:43:03 · 370 阅读 · 0 评论 -
HuggingFace的transfomers库
可以通过print(enc)看到,enc是GPT2TokenizerFast类型,搜索类型的定义,在python安装包的transformers/models/gpt2/tokenization_gpt2_fast.py。我获取了opt类型的tokenizer,那么enc是什么类型呢?原创 2023-11-08 10:10:12 · 587 阅读 · 0 评论 -
大模型学习
其中b是batch,s是序列长度,a是注意力头数,l是transformer层数,h指隐藏层维度。优化器状态占用的显存大小也是一样,与优化器类型有关,与模型参数量有关,但与输入数据的大小无关。计算量和参数量的关系,近似认为,在一次前向传递中,对于每个token,每个模型参数,需要进行2次浮点数运算,即一次乘法法运算和一次加法运算。,b是batch,l是transformer层数,h指隐藏层维度,s是输入序列长度,n是输出序列长度,4=2*2,k和v的cache,每个cache fp16存储,占用2B。原创 2024-01-08 16:39:47 · 3916 阅读 · 0 评论