- 博客(55)
- 资源 (7)
- 收藏
- 关注
原创 RDMA简介3之四种子协议对比
RDMA协议包含四种实现方式:InfiniBand、RoCE(v1/v2)和iWARP。InfiniBand采用专用网络架构,性能最优但成本高昂;RoCE协议通过以太网承载IB协议,其中v1仅支持二层网络,v2基于UDP/IP可支持三层网络;iWARP基于TCP/IP实现,兼容性最好但资源消耗较大。从应用趋势看,兼顾成本与性能的RoCE v2正成为数据中心的主流选择。各协议在网络层级、硬件需求和部署成本方面存在显著差异。
2025-06-04 15:54:26
84
原创 RDMA简介2之技术优势分析
摘要:随着数据中心对网络性能要求的提升,RDMA网络因其高带宽、低延迟的优势逐渐替代传统TCP/IP协议。RDMA通过零拷贝、绕过CPU介入等特性显著提升效率。图1对比显示,TCP/IP需多次数据拷贝和CPU处理,而RDMA直接由网卡读取已注册内存数据。这种架构差异使RDMA更适用于高性能计算场景。 (字数:97字)
2025-06-04 11:42:51
105
原创 RDMA简介1之RDMA开发必要性
摘要:FPGA作为数据采集前端面临存储容量不足的挑战,DDR SDRAM已无法满足TB级数据存储需求。研究表明,结合RDMA技术可实现高带宽、低延时数据传输,其中RoCE v2协议因以太网兼容性和低成本成为理想选择。当前研究聚焦于FPGA实现RoCE v2协议控制,并需解决不同数据采集场景下的性能优化问题。(148字)
2025-06-03 14:37:10
147
原创 NVMe IP现状扫盲
本文比较了SSD与机械硬盘的性能优势,指出传统接口协议已成为SSD的性能瓶颈。NVMe协议作为专为PCIe SSD设计的接口规范,具有高效管理、高I/O效率等优势,并已扩展到网络传输领域(NVMe-oF)。研究显示,将NVMe SSD应用于嵌入式系统虽能提升性能,但受限于嵌入式CPU主频和软件协议栈复杂度。为充分发挥NVMe性能,需要优化软件流程或采用硬件逻辑实现并行处理。随着协议完善,NVMe技术将成为存储领域的主流解决方案。
2025-06-02 23:30:39
790
原创 NVMe协议简介之AXI总线更新
AXI4总线协议是ARM提出的高性能片内总线标准,广泛应用于SOC设计。协议包含三种类型:AXI4-Full(支持突发传输等高级功能)、AXI4-Lite(简化版用于寄存器配置)和AXI4-Stream(专用于高速数据流)。AXI4采用五通道架构(读/写地址、数据及写响应通道),通过独立又相互依赖的通道实现高效数据传输。多设备通信需通过AXI互联IP实现路由转发。该协议因其高性能和低延迟特性,被Xilinx等厂商广泛采用,极大提升了SOC模块间的互联效率。
2025-06-02 23:21:32
864
原创 NVMe高速传输之摆脱XDMA设计4:PCIe 读应答模块设计
本文提出了一种高效的非Posted式存储器读请求TLP处理模块设计。该模块采用128位宽axis总线,通过三级流水结构和并行响应处理单元实现outstanding能力,支持队列、PRP和数据三类请求的并发处理。相比传统串行处理模式,该设计能显著减少总线空闲周期,充分利用PCIe乱序传输特性。时序分析表明,其吞吐量较单事务处理模式提升明显,有效解决了请求阻塞问题。
2025-05-25 09:19:47
317
原创 NVMe高速传输之摆脱XDMA设计3:PCIe 写应答模块设计
写应答模块架构,包括处理存储器写请求TLP的流程:解析报头字段、地址映射、数据缓存及通过AXI总线实现数据传输。该模块支持对完成队列和写数据的区分处理,提高了NVMe协议下的数据传输效率。
2025-05-25 09:12:51
292
原创 NVMe高速传输之摆脱XDMA设计2
选用XDMA做NVMe IP的关键传输模块,可以加速IP的设计,但是XDMA对于开发者来说,还是不方便,原因是它就象一个黑匣子,调试也非一番周折,尤其是后面PCIe4.0升级。因此决定直接采用PCIe设计,虽然要费一番周折,但是目前看,还是值得的,uvm验证也更清晰。
2025-05-24 16:53:07
533
原创 NVMe简介7之PCIe配置空间
PCIe 设备具有和PCI设备相同的配置空间头类型,此外使用PCIe拓展配置空间 管理PCIe总线。PCI配置空间头分为Type0和Type1两种类型,Type0类型配置空间 头在PCIe总线中用于EP,Type1类型配置空间头用于Switch中的虚拟PCI桥。
2025-05-18 00:20:25
306
原创 NVMe简介6之PCIe事务层
PCIe事务层连接了PCIe设备核心与PCIe链路,采用TLP(事务层包)进行数据传输。TLP由TLP前缀、头部、有效载荷和TLP摘要组成,其中TLP头部最为关键,通常包含三到四个双字。PCIe事务类型分为Non-Posted和Posted两类,Non-Posted事务需要完成报文响应,而Posted事务则不需要。
2025-05-18 00:09:37
397
原创 NVMe简介5之PCIe
PCIe(Peripheral Component Interconnect Express)体系结构主要由根复合体(Root Complex, RC)、Switch和终端设备(EndPoint, EP)组成。RC作为树形结构的根节点,负责配置总线设备、分配资源和管理数据传输。Switch用于扩展PCIe链路,实现路由功能,允许在一条链路上连接多个设备。EP则是连接到PCIe总线上的外部设备,如网卡、显卡等,能够接收和发起请求。PCIe总线采用分层协议,包括事务层、数据链路层和物理层。
2025-05-17 12:04:11
458
原创 NVMe协议简介4之AXI总线读写
AXI总线是ARM公司提出的AMBA(Advanced Microcontroller Bus Architecture)协议中的重要组成部分,主要面向高性能、高带宽、低延时的片内互连需求。这里简要介绍AXI总线分类及读写通道架构。
2025-05-17 10:19:04
384
原创 NVMe简介3之数据寻址
NVMe 协议支持物理区域内存页(Physical Region Page, PRP)和散集列表(ScatterGather List, SGL) 两种寻址模型, 基于 PCIe 的 NVMe 主要使用 PRP 寻址模型, 因此这里仅对 PRP 寻址模型进行分析。
2025-05-15 07:55:20
164
原创 NVMe简介2之数据结构
NVMe协议中规定每个提交命令的大小为64字节,完成命令大小为16字节,NVMe命令分为Admin和IO两类,NVMe的数据块组织方式有PRP和SGL两种。
2025-05-15 00:12:13
605
原创 NVMe简介1之NVMe队列和分层结构
NVM Express(NVMe)是一种高性能、可扩展的接口协议,用于通过PCI express(PCIe)总线,实现主机软件与NVM设备之间的通信。目前,由于NVMe SSD相比于SATA SSD具有更高的吞吐量、更快的访问速度和更低的功耗,已经被广泛应用于各种计算领域和存储系统。
2025-05-14 23:55:43
1063
原创 NVMe控制器之仿真平台搭建
通过搭建仿真平台,编写测试激励对高速存储传输系统中的关键模块进行仿真验证,并对验证的功能点进行波形检查与分析,在完成仿真后使用Vivado开发工具完成系统整体搭建
2025-05-10 14:45:40
194
原创 NVMe控制器IP设计之接口模块
由于AXI4接口协议的实现会占用大量的逻辑资源,为了节约资源,控制器内部的接口信号均采用逻辑简单的自定义接口,对外通过此模块转换为通用的AXI4接口,从而实现与其他模块之间的高效互联。
2025-05-10 14:40:00
432
原创 NVMe控制器之完成信息解析模块
完成信息解析模块用于解析NVMe命令执行完成后返回的信息。该模块首先提取完成信息中的Status Field字段和ID号。通过检查Status Field字段,判断NVMe命令是否成功执行。
2025-05-03 15:55:58
248
原创 NVME控制器之队列管理模块
队列管理模块是整个NVMe Host控制器的核心模块,该模块实现了提交队列与完成队列的管理,多队列请求的仲裁判决等功能。队列管理模块中含有数据选择单元、SQ、CQ、和仲裁器等模块。
2025-05-03 15:35:40
1042
原创 NVME控制器之指令控制模块设计
指令控制模块由一个指令信息缓存, 一个指令组装状态机和一个 ID 池组成。 指令信息缓存中存放着由系统控制模块写入的待处理指令信息; 指令组装状态机获取缓存的指令信息, 将其组装成提交队列条目写入提交队列中; ID 池则用于存放可使用的指令 ID。
2025-04-24 10:20:40
286
原创 NVMe 控制模块设计之架构
NVMe 控制模块负责实现用户请求事务与 NVMe 事务的转换、 NVMe 命令提交与完成机制、 PRP 寻址机制。 这里简介主要组成及功能,后续详细讨论。
2025-04-24 10:03:38
491
原创 一种适合万兆以太网存储传输系统设计(3)之详细设计3
接口转换模块实现了AXI4接口与AXI4-Stream接口之间的转换功能。接口转换模块主要由寄存器、S2MM和M2SS三部分组成。
2025-04-10 09:29:22
243
原创 一种适合万兆以太网存储传输系统设计(3)之详细设计2
一种适合万兆以太网存储传输系统设计(3)之详细设计2。流程控制模块主要由寄存器、读状态机、写状态机和命令生成模块组成。
2025-04-10 09:21:41
345
原创 一种适合万兆以太网存储传输系统设计(3)之关键模块设计3
接口转换模块实现了AXI4接口与AXI4-Stream接口之间的转换功能。接口转换模块主要由寄存器、S2MM和M2SS三部分组成,寄存器用来和流程控制模块之间进行信息的传递,S2MM和M2SS模块分别实现s_axis_stream接口到axi4写通道的转化和axi4读通道到m_axis_stream接口之间的转换功能,其内部分别通过写转换状态机和读转换状态机来实现。
2025-04-08 10:39:39
250
原创 一种适合万兆以太网存储传输系统设计(3)之详细设计1
以太网控制器主要实现了以太网包数据的封装与拆解、自动发起或响应同一个子网内设备的ARP请求以及ICMP数据包的响应等功能。这里给出相应详细设计思路
2025-04-08 10:32:40
412
原创 一种适合万兆以太网存储传输系统设计(3)之关键模块设计2
流程控制模块主要由寄存器、读状态机、写状态机和命令生成模块组成。本设计主要实现了NVMe协议中常用的识别、读、写、SMART、FLUSH以及关机命令。
2025-03-27 12:43:08
454
原创 一种适合万兆以太网存储传输系统设计(3)之关键模块级设计1
数据缓存控制器的外部接口信号主要包括与Microblaze处理器、NVMe Host控制器、以太网控制器、外部DDR存储器相连接的端口。数据缓存控制器主要实现了对大量突发数据的缓存、AXI4接口与AXI4-Stream接口之间的转换和NVMe命令的生成等功能。数据缓存控制器的整体架构如图1所示。(2)接口转换模块:接口转换模块负责完成将DDR控制器的AXI4接口转换为与其他模块进行数据交互的AXI4-Stream接口。根据功能需求将数据缓存控制器划分为了3个模块:流程控制模块、接口转换模块和MIG模块。
2025-03-27 11:40:13
193
原创 NVMe IP over PCIe 4.0:摆脱XDMA,实现超高速!
一种高性能NVMe IP设计。它不再依赖XDMA,直接深入PCIe,采用NVMe加速引擎设计,性能提升明显,大致思路在优快云其他文章已讨论。
2025-01-07 17:15:28
269
原创 NVME加速引擎之控制模块设计2
上文指出NVMe 控制模块负责实现用户请求事务与 NVMe 事务的转换、 NVMe 命令提交与完成机制、 PRP 寻址机制。它包括命令控制模块、 队列管理模块、 PRP 管理模块三个部分。下面针对各模块给出设计参考。
2024-12-30 09:02:32
413
原创 NVMe 加速引擎之控制模块设计1
NVMe加速引擎控制模块,设计的核心模块,它负责实现用户请求事务与 NVMe 事务的转换、 NVMe 命令提交与完成机制、 PRP 寻址机制。
2024-12-30 08:56:56
437
原创 三个月开发NVMe IP不是梦(下)
作为NVMe IP开发者,在构建IP时总是需要不断修改,然后编译上板测试,每一此编译,少则20分钟,多则两三个小时,对IP的热情总是在满怀期待的希望等待中磨灭本文给出一种便捷解决方案,通过UVM验证工具加快开发进度
2024-12-03 09:38:14
915
原创 三个月开发NVMe IP不是梦(上)
开发NMVe IP 难在哪?时间不等人,有什么简洁方式?NVMe协议相对复杂,过程调试不尽如意,采用开发板上机调试,耗时太长,不清楚如何排查问题,种种原因导致目前开发NVMe IP成为难点。现在有了NVMe开发助手,一切一目了然,快速仿真,轻松排查问题,三个月开发出NVMe host IP不是梦,期待你的交流。
2024-12-03 08:45:21
356
原创 基于FPGA的NVMe over PCIe逻辑加速引擎之PCIe加速模块设计(下)
PCIe 加速模块利用硬件的并行能力和缓存结构增加了 PCIe 事务层的处理效率和数据传输吞吐量。这里是其中的读模块设计
2024-10-17 08:36:39
505
原创 基于FPGA的NVMe over PCIe逻辑加速引擎之PCIe加速模块设计(上)
一种PCIe应用设计探索,针对较复杂的带有零散数据的数据环境情况, 尽可能发挥nvme灵活性。
2024-10-15 09:00:48
625
原创 基于FPGA的NVMe over PCIe逻辑加速引擎之系统架构
实现一种通用性更好的NVMe Host IP,给出加速引擎的系统架构图,希望更好的理解该IP‘
2024-10-10 20:23:33
917
原创 NVMe over PCIe逻辑加速引擎设计与实现
设计并实现了一种基于 FPGA 的 NoP 逻辑加速引擎, 并对其进行了功能验证和板级测试。 测试结果表明实现的 NoP 逻辑加速引擎的功能和性能均满足项目需求,提高了其在复杂数据环境中的灵活性和存储性能。
2024-10-09 20:00:28
271
原创 高性能 RDMA IP:通用性强,性能更优越
为满足高速数据的交换,设计高性能 RDMA IP。它采用Xilinx平台,选用Mellanox CX455A-ECAT100Gbe 网卡(目前xilinx只支持100G网卡)。该IP支持RDMA RoCE v2协议,只需一根光纤就解决与远程PC之间通信. 测试结果表明SEND速率71 Gbps,R/W分别为91 Gbps和96 Gbps。
2024-06-22 11:28:30
790
1
NVMe1.3c协议,便于理解和研究高速传输新技术
2018-11-17
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人