LMDeploy大模型量化部署实验

本文探讨了大模型部署中的挑战,如内存管理、动态形状和速度问题,以及如何通过模型并行、量化技术、Transformer优化和LMDeploy的量化、推理引擎TurboMind和推理服务apiserver来解决这些问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

大模型部署背景

大模型特点

内存开销

  • 巨大庞大的参数量。 7B 模型仅权重就需要 14+G 内存
  • 采用自回归生成 token,需要缓存 Attention 的 k/v,带来巨大的内存开销

动态shape

  • 请求数不固定
  • Token逐个生成,且数量不定

相对视觉模型,LLM结构简单

  • Transformers结构,大部分时decoder-only

大模型部署挑战

  • 设备:存储问题
  • 推理:token生成速度;动态shape,让推理不间断
  • 服务:提升系统整体吞吐量;降低个体用户响应时间

大模型部署方案

  • 技术点:模型并行;低比特量化;transformer计算和访存优化;continuous batch
  • 方案

        

LMDeploy简介

LMDeploy时LLM在英伟达设备上部署的全流程解决方案。包括模型轻量化、推理和服务。

核心功能 - 量化

为什么做Weight Only的量化

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值