如何部署推理大模型,大模型推理原理及部署一文全解

一、推理原理及业务痛点:

1.1. 业务场景:

针对特定任务训练出一个模型后,要将这个模型部署,以便和模型互动及集成模型到程序中。

1.2. 技术原理:
  • 推理的本质:List item transformer结构,根据输入内容预测输出内容。
    • 核心生成原理:将输入的语句以词向量的表征形式传递给神经网络,通过编码器/解码器、位置编码和自注意力机制建立单词(或字)之间的联系。
  • 理解:从现有数据中汲取知识、提升能力的过程,而推理则是运用这些学习到的能力,迅速且高效地对未知的数据进行处理,以获得预期的结果。
  • 流程:输入的每个单词(或字)首先会与已经编码在模型中的单词(或字)进行相关性计算,然后把这种相关性以编码的形式叠加在每个单词(或字)中。
1.3. 痛点:

总结:大模型推理要求更高的计算、存储和内存需求,以及如何确保低延迟生成推理结果。并平衡预算。

  • 模型的推理的速度和质量如何?(过慢的推理速度会导致系统的整体运行效率降低,进而影响用户的满意度与体验感。)
  • 为计算资源设定的预算是多少?
  • 为了获得更快的推理速度以及更低的存储成本,愿意对模型能力做出何种妥协及权衡?

二、方案与策略:

2.1. 常见解决方法:
  1. 模型压缩和加速技术:
  • 减小模型尺寸:在保证模型性能的前提下有效缩小模型体积,此时需要在模型性能、计算预算和延迟之间进行权衡。通过缩小模型体积,可以提高模型的加载速度和降低延迟,同时减少对计算、存储和内存资源的需求。
  • 减少计算操作
  1. 推理服务提升技术(吞吐量、时延;两者很难兼顾):
  • KV Cache:KV Cache是常用的大模型性能优化技术之一,主要采用“以空间换时间”的策略,通过提高模型推理性能来增强模型的实际应用效果。该技术在目前业界主流的大模型推理框架中得到广泛支持和应用。
    将K、V等信息存储在内存中,使得它们可以在之后的每步推理中重复使用。这一方法被称为KV Cache。对于后面的计算过程,这些已计算的结果会直接从KV Cache中读取并与新的输入进行拼接,以供后续计算使用。这种方法避免了重复计算,可以大幅减少参数的计算量,提高推理效率。
    尽管KV Cache能够显著提高推理性能,但值得注意的是,由于它会缓存每一轮已计算的向量,因此会占用额外的显存资源。这意味着在使用KV Cache时,我们需要权衡性能提高与显存开销之间的关系。
  • PagedAttention
    vLLM框架使用PagedAttention注意力算法。这一算法的创新之处在于,它极大地降低了大模型服务的部署门槛,使得开发者能够以更低的成本、更高的效率将大模型服务推向市场。
    在应对大量用户推理请求时,一般做法是使模型基于用户提供的输入和历史信息一次生成一个结果。但是该做法非常低效,无法充分利用GPU设备的计算能力。为了突破这一瓶颈,可以采用批处理方法,一次处理多个请求,以提升模型推理的吞吐量,但需要有效管理每个推理请求占用的内存空间。
    原论文作者发现,除了模型权重参数(约占60%)及部分其他数据之外,与注意力机制相关的KV Cache占据约30%的内存。图7-8展示了模型在NVIDIAA100 GPU中推理时的显存分布情况。 在这里插入图片描述

模型在NVIDIA A100 GPU中推理时的显存分布

2.2. 大语言模型的局限性:

问题描述:获取准确的和最新的知识方面存在一定的局限性
解决方案:RAG,可以改进两个常见问题,幻觉和知识截断。


最先掌握AI的人,将会比较晚掌握AI的人有竞争优势

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

倘若大家对大模型抱有兴趣,那么这套大模型学习资料肯定会对你大有助益。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

学习路上没有捷径,只有坚持。但通过学习大模型,你可以不断提升自己的技术能力,开拓视野,甚至可能发现一些自己真正热爱的事业。

最后,送给你一句话,希望能激励你在学习大模型的道路上不断前行:

If not now, when? If not me, who?
如果不是为了自己奋斗,又是为谁;如果不是现在奋斗,什么时候开始呢?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值