Linux DMA Engine framework(1)_概述

本文介绍了Linux DMA Engine框架的基本概念和术语,包括DMA channels、DMA request lines、传输参数及scatter-gather技术,为后续深入解析DMA Engine的Provider和Consumer角度的实现细节奠定基础。

原创文章,转发请注明出处。蜗窝科技www.wowotech.net

Linux DMA Engine framework(1)_概述

作者:wowo 发布于:2017-3-30 22:01 分类:Linux内核分析

1. 前言

前面文章介绍“Linux MMC framework”的时候,涉及到了MMC数据传输,进而不可避免地遭遇了DMA(Direct Memory Access)。因而,择日不如撞日,就开几篇文章介绍Linux的DMA Engine framework吧。

本文是DMA Engine framework分析文章的第一篇,主要介绍DMA controller的概念、术语(从硬件的角度,大部分翻译自kernel的document[1])。之后,会分别从Provider(DMA controller驱动)和Consumer(其它驱动怎么使用DMA传输数据)两个角度,介绍Linux DMA engine有关的技术细节。

2. DMA Engine硬件介绍

DMA是Direct Memory Access的缩写,顾名思义,就是绕开CPU直接访问memory的意思。在计算机中,相比CPU,memory和外设的速度是非常慢的,因而在memory和memory(或者memory和设备)之间搬运数据,非常浪费CPU的时间,造成CPU无法及时处理一些实时事件。因此,工程师们就设计出来一种专门用来搬运数据的器件----DMA控制器,协助CPU进行数据搬运,如下图所示:

dma

图片1 DMA示意图

思路很简单,因而大多数的DMA controller都有类似的设计原则,归纳如下[1]。

注1:得益于类似的设计原则,Linux kernel才有机会使用一套framework去抽象DMA engine有关的功能。

2.1 DMA channels

一个DMA controller可以“同时”进行的DMA传输的个数是有限的,这称作DMA channels。当然,这里的channel,只是一个逻辑概念,因为:

鉴于总线访问的冲突,以及内存一致性的考量,从物理的角度看,不大可能会同时进行两个(及以上)的DMA传输。因而DMA channel不太可能是物理上独立的通道;

很多时候,DMA channels是DMA controller为了方便,抽象出来的概念,让consumer以为独占了一个channel,实际上所有channel的DMA传输请求都会在DMA controller中进行仲裁,进而串行传输;

因此,软件也可以基于controller提供的channel(我们称为“物理”channel),自行抽象更多的“逻辑”channel,软件会管理这些逻辑channel上的传输请求。实际上很多平台都这样做了,在DMA Engine framework中,不会区分这两种channel(本质上没区别)。

2.2 DMA request lines

由图片1的介绍可知,DMA传输是由CPU发起的:CPU会告诉DMA控制器,帮忙将xxx地方的数据搬到xxx地方。CPU发完指令之后,就当甩手掌柜了。而DMA控制器,除了负责怎么搬之外,还要决定一件非常重要的事情(特别是有外部设备参与的数据传输):

何时可以开始数据搬运?

因为,CPU发起DMA传输的时候,并不知道当前是否具备传输条件,例如source设备是否有数据、dest设备的FIFO是否空闲等等。那谁知道是否可以传输呢?设备!因此,需要DMA传输的设备和DMA控制器之间,会有几条物理的连接线(称作DMA request,DRQ),用于通知DMA控制器可以开始传输了。

这就是DMA request lines的由来,通常来说,每一个数据收发的节点(称作endpoint),和DMA controller之间,就有一条DMA request line(memory设备除外)。

最后总结:

DMA channel是Provider(提供传输服务),DMA request line是Consumer(消费传输服务)。在一个系统中DMA request line的数量通常比DMA channel的数量多,因为并不是每个request line在每一时刻都需要传输。

2.3 传输参数

在最简单的DMA传输中,只需为DMA controller提供一个参数----transfer size,它就可以欢快的工作了:

在每一个时钟周期,DMA controller将1byte的数据从一个buffer搬到另一个buffer,直到搬完“transfer size”个bytes即可停止。

不过这在现实世界中往往不能满足需求,因为有些设备可能需要在一个时钟周期中,传输指定bit的数据,例如:

memory之间传输数据的时候,希望能以总线的最大宽度为单位(32-bit、64-bit等),以提升数据传输的效率; 
而在音频设备中,需要每次写入精确的16-bit或者24-bit的数据; 
等等。

因此,为了满足这些多样的需求,我们需要为DMA controller提供一个额外的参数----transfer width。

另外,当传输的源或者目的地是memory的时候,为了提高效率,DMA controller不愿意每一次传输都访问memory,而是在内部开一个buffer,将数据缓存在自己buffer中:

memory是源的时候,一次从memory读出一批数据,保存在自己的buffer中,然后再一点点(以时钟为节拍),传输到目的地; 
memory是目的地的时候,先将源的数据传输到自己的buffer中,当累计一定量的数据之后,再一次性的写入memory。

这种场景下,DMA控制器内部可缓存的数据量的大小,称作burst size----另一个参数。

2.4 scatter-gather

我们在“Linux MMC framework(2)_host controller driver”中已经提过scatter的概念,DMA传输时也有类似概念:

一般情况下,DMA传输一般只能处理在物理上连续的buffer。但在有些场景下,我们需要将一些非连续的buffer拷贝到一个连续buffer中(这样的操作称作scatter gather,挺形象的)。

对于这种非连续的传输,大多时候都是通过软件,将传输分成多个连续的小块(chunk)。但为了提高传输效率(特别是在图像、视频等场景中),有些DMA controller从硬件上支持了这种操作。 
注2:具体怎么支持,和硬件实现有关,这里不再多说(只需要知道有这个事情即可,编写DMA controller驱动的时候,自然会知道怎么做)。

3. 总结

本文简单的介绍了DMA传输有关的概念、术语,接下来将会通过下面两篇文章,介绍Linux DMA engine有关的实现细节:

Linux DMA Engine framework(2)_provider

Linux DMA Engine framework(3)_consumer

4. 参考文档

[1] Documentation/dmaengine/provider.txt

### dmaengine_prep_dma_memcpy 详细介绍 #### 功能 `dmaengine_prep_dma_memcpy` 是 Linux 内核 DMA 引擎框架中的一个函数,其主要功能是准备一个内存到内存的 DMA 传输操作。在 Linux 中,DMA(Direct Memory Access)允许设备在不经过 CPU 干预的情况下直接进行内存数据传输,从而提高系统性能。该函数会创建一个 DMA 描述符(descriptor),这个描述符包含了 DMA 传输所需的各种信息,如源地址、目标地址、传输长度等,为后续的 DMA 传输做好准备。 #### 使用方法 以下是 `dmaengine_prep_dma_memcpy` 函数的原型: ```c struct dma_async_tx_descriptor *dmaengine_prep_dma_memcpy(struct dma_chan *chan, dma_addr_t dst, dma_addr_t src, size_t len, unsigned long flags); ``` - **参数说明**: - `chan`:指向 DMA 通道的指针,该通道用于执行 DMA 传输。在使用之前,通常需要通过 `dma_request_slave_channel` 或 `__dma_request_channel` 等函数来请求一个 DMA 通道 [^1]。 - `dst`:目标内存的 DMA 地址,即数据要传输到的位置。 - `src`:源内存的 DMA 地址,即数据的起始位置。 - `len`:要传输的数据长度,单位为字节。 - `flags`:DMA 传输的标志位,用于指定传输的一些特性,如是否需要同步等。 - **返回值**: 函数返回一个指向 `dma_async_tx_descriptor` 结构体的指针,该结构体描述了准备好的 DMA 传输操作。如果返回 `NULL`,则表示准备 DMA 传输失败。 - **使用示例**: ```c #include <linux/dmaengine.h> // 假设已经请求到了一个 DMA 通道 struct dma_chan *chan; // 源和目标的 DMA 地址 dma_addr_t src_addr; dma_addr_t dst_addr; // 传输长度 size_t length = 1024; // 准备 DMA 传输 struct dma_async_tx_descriptor *tx = dmaengine_prep_dma_memcpy(chan, dst_addr, src_addr, length, 0); if (tx) { // 提交 DMA 传输 dmaengine_submit(tx); // 启动 DMA 传输 dma_async_issue_pending(chan); } ``` ### 与 dma_cap_zero 的关联 `dma_cap_zero` 用于将 DMA 能力标志集合初始化为零,而 `dmaengine_prep_dma_memcpy` 用于准备内存到内存的 DMA 传输。它们之间的关联主要体现在 DMA 通道的请求过程中。 在请求 DMA 通道时,通常需要指定所需的 DMA 能力。可以使用 `dma_cap_zero` 先将能力标志集合清零,然后根据需要添加特定的能力标志,如 `DMA_MEMCPY`。只有当请求的 DMA 通道具备 `DMA_MEMCPY` 能力时,才能成功使用 `dmaengine_prep_dma_memcpy` 进行内存到内存的 DMA 传输。示例代码如下: ```c #include <linux/dmaengine.h> // 定义一个 DMA 能力标志集合变量 dma_cap_mask_t dma_cap_mask; // 使用 dma_cap_zero 将能力标志集合初始化为零 dma_cap_zero(dma_cap_mask); // 添加 DMA_MEMCPY 能力标志 dma_cap_set(DMA_MEMCPY, dma_cap_mask); // 请求具备 DMA_MEMCPY 能力的 DMA 通道 struct dma_chan *chan = __dma_request_channel(&dma_cap_mask, NULL, NULL); if (chan) { // 准备内存到内存的 DMA 传输 // ... } ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值