关于FPGA加速推理大语言模型时,内存限制问题的解决方案的思考。

Open AI 刚发布GPT4那会儿,估计就有很多人想到了FPGA是否能加速推理过程

网上就有一篇文章:剖析 FPGA 加速大模型推理的潜力。证明了逻辑实现大模型推理的可行性。

然而对于百亿量级参数的大模型,大多数FPGA上那几个G的DDR根本不够使。

今天洗澡的时候我突然想到了之前在B站看到的直接用FPGA读取PC内存的外挂。
这类外挂基本上都是基于国外老哥开源的pcileech开发的。

原理大致就是FPGA通过pcie接口直接访问电脑主机的内存,绕过CPU,简称DMA,直接内存访问。

这里摘抄了几个pcileech的特性:

Capabilities: 能力:

  • Retrieve memory from the target system at >150MB/s.

    以 >150MB/s 的速度从目标系统检索内存。实际带宽远不止这点,这是他转成usb外设后的速度。真正的带宽瓶颈可能是pcie和你电脑内存的速度。

  • ALL memory can be accessed in native DMA mode (FPGA hardware).

    所有存储器都可以在本机DMA模式(FPGA硬件)下访问。想象一下你的主机插满128G的内存。

  • Raw PCIe TLP access (FPGA hardware).

    原始 PCIe TLP 访问(FPGA 硬件)。说实话开发难度还是有点大的你还得懂pcie。

评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值