LINUX-DMA-子系统

本文深入介绍了DMA子系统,包括其软件框架、内存地址类型、Coherent DMA与Streaming DMA的使用、DMA地址转换以及DMA API的详细使用。内容涵盖了dma_alloc_coherent、dma_pool、dma_map_single等关键接口,并解释了DMA方向和DMAengine的使用流程。

目录

1. DMA子系统概述

2. DMA子系统软件框架

2.1 DMA子系统内部实现

3. DMA 地址 

4. DMA类型

4.1.  Coherent DMA

4.1.1 Coherent DMA使用

4.2.  Streaming DMA

4.2.1. Streaming DMA使用

4.2.2. scatterlist streaming DMA

4.2.2. streaming DMA sync cache

5. DMA方向

6. DMA API

6.1. dma_alloc_coherent

6.2. dma_pool*

6.3 dma_set_mask*

6.4 dma_map_single

6.6 dma_map_sg

6.7 dma_map_page

6.8 dma_sync_single_for*

6.9 dma_request_chan

6.10 dmaengine_slave_config

2.11 dmaengine_prep_slave_sg

6.12 dmaengine_prep_dma_cyclic

6.13 dmaengine_prep_interleaved_dma

6.14 dmaengine_submit

6.15 dma_async_issue_pending

6.16 dmaengine_terminate*

6.17 dmaengine_pause

6.18 dmaengine_resume

6.19 dma_async_is_tx_complete

7. DMA engine usage


1. DMA子系统概述

DMA子系统为不同的DMA控制器提供统一的注册接口,为DMA使用者提供屏蔽DMA控制器实现细节的统一接口。

2. DMA子系统软件框架

DMA子系统由四大部分构成:

1. dmaengine: 实现DMA子系统的DMA设备注册,为DMA使用者提供屏蔽DMA控制器实现细节的统一接口。

2. virt-dma:为DMA子系统提供虚拟DMA channel的支持

3. of-dma:为DMA子系统提供DMA 设备树的支持

4. dma driver:为DMA控制器的实现

2.1 DMA子系统内部实现

 以全志平台为例。

DMA内部主要数据结构已经流出如上图所示。

3. DMA 地址 

              CPU                  CPU                  Bus
             Virtual              Physical             Address
             Address              Address               Space
              Space                Space

            +-------+             +------+             +------+
            |       |             |MMIO  |   Offset    |      |
            |       |  Virtual    |Space |   applied   |      |
          C +-------+ --------> B +------+ ----------> +------+ A
            |       |  mapping    |      |   by host   |      |
  +-----+   |       |             |      |   bridge    |      |   +--------+
  |     |   |       |             +------+             |      |   |        |
  | CPU |   |       |             | RAM  |             |      |   | Device |
  |     |   |       |             |      |             |      |   |        |
  +-----+   +-------+             +------+             +------+   +--------+
            |       |  Virtual    |Buffer|   Mapping   |      |
          X +-------+ --------> Y +------+ <---------- +------+ Z
            |       |  mapping    | RAM  |   by IOMMU
            |       |             |      |
            |       |             |      |
            +-------+             +------+

DMA中会涉及到几类型的地址:

1. 虚拟地址:内核通常使用的地址就是虚拟地址,大部分是由kmalloc、vmalloc以及类似的接口申请并返回。

2. 物理地址:DRAM空间的地址

3. 总线地址:系统mapping出来的地址空间

如上图中

A-->B-->C的过程表示设备寄存器的访问过程

X-->Y-->Z的过程表示DMA访问设备FIFO的过程

在某些系统(U-boot)DMA直接访问物理地址,但是在许多系统,是通过 IOMMU来实现物理地址的转换(Z-->Y)。

例如:通过提供虚拟地址X给dma_map_single(),dma_map_single()通过该IOMMU映射以及返回DMA 可以访问的总线地址Z,以及IOMMU映射Z到Y(系统RAM,例如DRAM空间地址)

Tips:

  1. 1). 在Linux系统中虚拟地址通常存储在void *,物理地址通常存储在phys_addr_t或者resource_size_t。

    2). 在某些平台上总线地址=物理地址,但通常不这么做,IOMMUs和主机网桥可以在物理地址和总线地址之间生成任意映射

    3). 总线地址A通过内部桥转换为CPU物理地址B,Ioremap()实现物理地址B到虚拟地址C的映射,然后可以ioread32(C)来访问总线地址A

    4).DMA地址应该使用dma_addr_t类型

4. DMA类型

这里说的DMA类型是从DMA地址的角度出发的,分为两类:

1. Coherent(consistent) DMA(一致性DMA)

2. Streaming DMA(流式DMA)

4.1.  Coherent DMA

Coherent DMA在访问DDR的时候不经过cpu cache。

Coherent DMA确保设备和CPU可以并行访问数据,并在不进行任何显式软件刷新的情况下看到彼此进行的更新

Tips: 

  1. 1). 通常在驱动初始化时候map,在卸载或者结束的时候unmap
  2. 2). 如果要确保设备按顺序看到你的配置可以使用内存屏障来保证内存排序:
  3. e.g.
  4.         
    desc->word0 = address;
    wmb(); 
    desc->word1 = DESC_VALID;

    3). 在某些平台上,驱动程序可能需要刷新CPU写缓冲区(跟CPU架构有关,ARM cortex_a53 没有write buffer, ARMv9有write buffer),其方式与刷新PCI桥中的写缓冲区的方式大致相同

  5. 4.1.1 Coherent DMA使用

  6. 1). 如果申请和映射的Coherent DMA域大于PAGE_SIZE(e.g. 4KB)使用如下接口:
  7.  dma_alloc_coherent。

  8. e.g. 

  9. /*a. alloc coherent */
    dma_addr_t dma_handle;
    cpu_addr = dma_alloc_coherent(dev, size, &dma_handle, gfp); 
    
    @cpu_addr:CPU角度访问的虚拟地址,按PAGE_SIZE对齐,意味着大于等于申请大小
    @dma_handle: DMA角度访问的物理地址,按PAGE_SIZE对齐,意味着大于等于申请大小
    
    
    /*b. free coherent*/
    dma_free_coherent(dev, size, cpu_addr, dma_handle);
    

    注意:

    1.         alloc出来的coherent dma域按PAGE_SIZE对齐。

    2. 2). 如果申请和映射的Coherent DMA域小于PAGE_SIZE(e.g. 4KB)使用如下接口:

    3. /*dma pool*/
      /*a.Create a dma_pool*/
      struct dma_pool *pool = dma_pool_create(name, dev, size, align, boundary);  
      @size:必须对齐2
      
      /*b.Allocate memory from a DMA pool*/
      cpu_addr = dma_pool_alloc(pool, flags, &dma_handle)
      @ flag:GFP_KERNEL
      
      /*c.Free memory*/
      dma_pool_free(pool, cpu_addr, dma_handle);
      
      /*Destroy a dma_pool*/
      dma_pool_destroy(pool)
      调用之前先释放所有在dma pool中申请的内存

  10. 4.2.  Streaming DMA

  11. Streaming DMA在访问DDR的时候经cpu 过cache。

  12. Streaming DMA流式DMA通常在某一次的传输中使用,使用之后取消。

  13. 4.2.1. Streaming DMA使用

有两类型的streaming DMA映射:single、scatterlist

1). Single streaming DMA

不使用HIGHMEM:

/*a. map a single region*/
dma_handle = dma_map_single(dev, addr, size, direction)
@dma_handle:DMA操作的物理地址
@addr:需要map的虚拟地址

/*b. unmap, DMA传输结束调用*/
dma_unmap_single(dev, dma_handle, size, direction);
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值