
LLM
文章平均质量分 62
qq_42725437
这个作者很懒,什么都没留下…
展开
-
接触huggingface
按照https://github.com/samlhuillier/code-llama-fine-tune-notebook/tree/main中的教程一步一步了解。原创 2023-12-10 00:57:53 · 280 阅读 · 0 评论 -
【hugging face】bitsandbytes中8 bit量化的理解
因此,本质上,我们执行矩阵乘法以节省精度,然后将非异常值结果拉回到 FP16,而非异常值的初始值和按比例缩小后的值之间没有太大差异。8 位量化使数十亿参数规模的模型能够适应更小的硬件,而不会降低性能。3.改变非异常值结果以将值拉回到 FP16,并将它们添加到 FP16 中的异常值结果中。2.对 FP16 中的离群值和 int8 中的非离群值执行矩阵乘法。1.从输入隐藏状态中按列提取较大值(离群值)。原创 2023-12-09 01:55:24 · 1413 阅读 · 0 评论