CMA连续物理内存用户空间映射---(一)

本文介绍了一种在Linux内核中实现连续物理内存分配并映射到用户空间的方法,适用于多媒体和图像处理等场景。文章详细展示了如何通过CMA(Contiguous Memory Allocator)进行内存分配,并提供了具体的驱动及用户空间示例程序。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景:

在多媒体和图像处理等应用中,经经常使用到大块内存,尤其是硬件编解码。须要内核分配大块的物理连续内存。

这里希望通过把从内核分配的连续物理内存映射到用户空间。在用户空间经过处理,又能够入队到驱动中。

前提:

Kernel Config中 依据需求配置和调整CMA的大小。

方法:

(一)

1、驱动注冊misc设备。

2、驱动实现IOCTL的内存分配,使用dma_alloc_writecombine从CMA中拿出一个内存。

3、驱动实现mmap,通过remap_pfn_range,把上面第二步dma分配到的物理内存映射到用户空间;

(二)

1、用户打开设备节点/dev/cma_mem;

2、通过ioctl命令,设置须要分配的大小。

3、通过mmap映射;

測试环境:

Linux-3.9.7

arm-linux-gcc 4.5.1

s5pv210

源代码:

驱动

cma_mem.c

#include <linux/miscdevice.h>
#include <linux/platform_device.h>
#include <linux/fs.h>
#include <linux/file.h>
#include <linux/mm.h>
#include <linux/list.h>
#include <linux/mutex.h>
#include <linux/debugfs.h>
#include <linux/mempolicy.h>
#include <linux/sched.h>
#include <linux/module.h>
#include <asm/io.h>
#include <asm/uaccess.h>
#include <asm/cacheflush.h>
#include <linux/dma-mapping.h>
#include <linux/export.h>

#include "cma_mem.h"

#define DEVICE_NAME "cma_mem" 


enum cma_status{
	UNKNOW_STATUS = 0,
	HAVE_ALLOCED = 1,
	HAVE_MMAPED =2,
};

struct cmamem_dev {
	unsigned int count;
	struct miscdevice dev;
	struct mutex cmamem_lock;
	struct list_head info_list;
};

struct current_status{
		int status;
		int id_count;
		dma_addr_t phy_base;
};

static struct current_status cmamem_status;
static struct cmamem_dev cmamem_dev;
static struct cmamem_info cma_info[32];
static long cmamem_ioctl(struct file *file, unsigned int cmd, unsigned long arg)
{

	int ret = 0;
	int size = 0;
	dma_addr_t map_dma;

	switch(cmd){
		case CMEM_ALLOCATE:
		{
			printk(KERN_ERR"cmamem_ioctl:CMEM_ALLOCATE\n");
			cmamem_status.id_count = cmamem_dev.count++;
			cma_info[cmamem_status.id_count].id = cmamem_status.id_count;
			if ((ret = copy_from_user(&cma_info[cmamem_status.id_count], (void __user *)arg,
			sizeof(struct cmamem_info))))
			{
				printk(KERN_ERR"cmamem_ioctl:CMEM_ALLOCATE:copy_from_user error:%d\n", ret);
				ret = -EFAULT;
				goto err;
			}
	
			size = cma_info[cmamem_status.id_count].len;
			size = PAGE_ALIGN(size);
			if(size == 0)
			{
				printk(KERN_ERR"size is 0\n");
				ret = -ENOMEM;
				goto err;
			}
			printk(KERN_ERR"cmamem_ioctl:CMEM_ALLOCATE:start alloc:%d,size:%d\n", cmamem_status.id_count, cma_info[cmamem_status.id_count].len);
			cma_info[cmamem_status.id_count].mem_base = (unsigned int)dma_alloc_writecombine(NULL, size, &map_dma, GFP_KERNEL);
			if (!cma_info[cmamem_status.id_count].mem_base){
				printk(KERN_ERR "dma alloc fail:%d!\n", __LINE__);
				ret = -ENOMEM;
				goto err;
			}
			
			printk(KERN_ERR"map_dma:0x%08x,size:%d\n", map_dma, size);
			
			cma_info[cmamem_status.id_count].phy_base = map_dma;
			cmamem_status.phy_base = map_dma;

			mutex_lock(&cmamem_dev.cmamem_lock);
			
			cmamem_status.status = HAVE_ALLOCED;
			
			mutex_unlock(&cmamem_dev.cmamem_lock);
			break;
		}
		default:
		{
			printk(KERN_INFO "cma mem not support command\n");
			break;
		}
	}
	err:
	return ret;
}


static int cmamem_mmap(struct file *filp, struct vm_area_struct *vma)
{
	unsigned long start = vma->vm_start;
	unsigned long size = vma->vm_end - vma->vm_start;
	unsigned long offset = vma->vm_pgoff << PAGE_SHIFT;
	unsigned long page, pos;

	
	//dump_stack();

	if(cmamem_status.status != HAVE_ALLOCED)
	{
		printk(KERN_ERR"%s, you should allocted memory firstly\n", __func__);
		return -EINVAL; 
	}
	
	
	printk( "start=0x%08x offset=0x%08x\n", (unsigned int)start, (unsigned int)offset );

	pos = (unsigned long)cmamem_status.phy_base + offset;
	page = pos >> PAGE_SHIFT ;
	if( remap_pfn_range( vma, start, page, size, PAGE_SHARED )) {
		return -EAGAIN;
	}
	else{
		printk( "remap_pfn_range %u\n success\n", (unsigned int)page );
	}
	vma->vm_flags &= ~VM_IO; 
	vma->vm_flags |=  (VM_DONTEXPAND | VM_DONTDUMP);
	
	return 0;
}

static struct file_operations dev_fops = {  
    .owner          = THIS_MODULE,  
    .unlocked_ioctl = cmamem_ioctl,  
	.mmap = cmamem_mmap,
};

static int __init cmamem_init(void)
{
	printk(KERN_ERR"%s\n", __func__);
	mutex_init(&cmamem_dev.cmamem_lock);
	INIT_LIST_HEAD(&cmamem_dev.info_list);
	cmamem_dev.count = 0;
	cmamem_dev.dev.name = DEVICE_NAME;
	cmamem_dev.dev.minor = MISC_DYNAMIC_MINOR;
	cmamem_dev.dev.fops = &dev_fops;
	
	cmamem_status.status = UNKNOW_STATUS;
	cmamem_status.id_count = -1;
	cmamem_status.phy_base = 0;
	
	
	return misc_register(&cmamem_dev.dev);
}

static void __exit cmamem_exit(void)  
{  
    printk(KERN_ERR"%s\n", __func__);
	misc_deregister(&cmamem_dev.dev);  
} 


module_init(cmamem_init);
module_exit(cmamem_exit);
MODULE_LICENSE("GPL");

cma_mem.h

#ifndef _CMA_MEM_H_
#define _CMA_MEM_H_

#define CMEM_IOCTL_MAGIC 'm'
#define CMEM_GET_PHYS		_IOW(CMEM_IOCTL_MAGIC, 1, unsigned int)
#define CMEM_MAP		_IOW(CMEM_IOCTL_MAGIC, 2, unsigned int)
#define CMEM_GET_SIZE		_IOW(CMEM_IOCTL_MAGIC, 3, unsigned int)
#define CMEM_UNMAP		_IOW(CMEM_IOCTL_MAGIC, 4, unsigned int)

#define CMEM_ALLOCATE		_IOW(CMEM_IOCTL_MAGIC, 5, unsigned int)

#define CMEM_CONNECT		_IOW(CMEM_IOCTL_MAGIC, 6, unsigned int)

#define CMEM_GET_TOTAL_SIZE	_IOW(CMEM_IOCTL_MAGIC, 7, unsigned int)
#define CMEM_CACHE_FLUSH	_IOW(CMEM_IOCTL_MAGIC, 8, unsigned int)


struct cmamem_info {
	char *name;
	char is_cache;
	unsigned int id;
	unsigned int offset;
	unsigned int len;
	unsigned int phy_base;
	unsigned int mem_base;
//	struct list_head list;
};




#endif
Makefile

KERN_DIR = /work/kernel/linux-3.9.7

all:
	make -C $(KERN_DIR) M=`pwd` modules 

clean:
	make -C $(KERN_DIR) M=`pwd` modules clean
	rm -rf modules.order

obj-m	+= cma_mem.o


用户測试程序

#include <stdio.h>
#include <stdarg.h>
#include <string.h>
#include <errno.h>
#include <stdlib.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <time.h>
#include <sys/mman.h>
#include <assert.h>
#include <linux/videodev2.h>
#include <linux/fb.h>
#include <pthread.h>
#include <poll.h>
#include <semaphore.h>

#define CMEM_IOCTL_MAGIC 'm'
#define CMEM_GET_PHYS		_IOW(CMEM_IOCTL_MAGIC, 1, unsigned int)
#define CMEM_MAP		_IOW(CMEM_IOCTL_MAGIC, 2, unsigned int)
#define CMEM_GET_SIZE		_IOW(CMEM_IOCTL_MAGIC, 3, unsigned int)
#define CMEM_UNMAP		_IOW(CMEM_IOCTL_MAGIC, 4, unsigned int)

#define CMEM_ALLOCATE		_IOW(CMEM_IOCTL_MAGIC, 5, unsigned int)

#define CMEM_CONNECT		_IOW(CMEM_IOCTL_MAGIC, 6, unsigned int)

#define CMEM_GET_TOTAL_SIZE	_IOW(CMEM_IOCTL_MAGIC, 7, unsigned int)
#define CMEM_CACHE_FLUSH	_IOW(CMEM_IOCTL_MAGIC, 8, unsigned int)


struct cmamem_info {
	char *name;
	char is_cache;
	unsigned long id;
	unsigned long offset;
	unsigned long len;
	unsigned long phy_base;
	unsigned long mem_base;
//	struct list_head list;
};

int main()
{
	int cmem_fd;
	void *cmem_base;
	unsigned int size;
	struct cmamem_info region;
	int i;
	cmem_fd = open("/dev/cma_mem", O_RDWR, 0);//打开设备。为了操作硬件引擎,要noncache的
	printf("cmem_fd:%d\n", cmem_fd);
	if (cmem_fd >= 0)  
	{       

		memset(&region, 0x00, sizeof(struct cmamem_info));
		region.len = 800 * 480 * 4;
		if (ioctl(cmem_fd, CMEM_ALLOCATE, &region) < 0) //获取所有空间            
		{	
			perror("PMEM_GET_TOTAL_SIZE failed\n");
			return -1;
		}
       
		size = region.len;
		
		cmem_base = mmap(0, size, PROT_READ|PROT_WRITE, MAP_SHARED, cmem_fd, 0);//mmap操作
		printf("cmem_base:0x%08x,region.len:0x%08x offset:0x%08x\n",(unsigned int)cmem_base, region.len, region.offset);
		if (cmem_base == MAP_FAILED)            
		{	cmem_base = 0;
            close(cmem_fd);
            cmem_fd = -1;
			perror("mmap pmem error!\n");
		}
		for(i = 0; i < 10; i++)
		((unsigned int *)cmem_base)[i] = i;
		printf("pmem_base:0x%08x\n", cmem_base);
		for(i = 0; i < 10; i++)
		printf("%d\n", ((unsigned int *)cmem_base)[i]);
		
    }
	close(cmem_fd);
	return 0;
}




<think>嗯,用户想知道在Linux系统中如何分配连续物理内存用于DMA操作。我之前学过的相关知识应该能帮上忙。首先,DMA操作需要连续物理内存,因为外设可能直接访问物理地址,而虚拟内存的碎片化可能导致物理地址不连续。所以,系统需要些机制来确保分配的内存是物理连续的。 我记得Linux内核中有几种方法可以做到这点。比如CMA连续内存分配器),这是内核的个机制,专门用来预留大块连续物理内存,供DMA或类似需求使用。然后,还有kmalloc函数,当使用GFP_DMA标志时,可能会从DMA区域分配内存,但大小有限制,通常不超过几MB。另外,用户空间可能通过mmap映射/dev/mem设备,但这种方法需要root权限,而且不太安全,可能被禁用。 用户提供的引用里提到了方法1使用mmap和/dev/mem,还有引用3提到DMA操作在ARM架构的例子。所以可能需要结合这些信息。另外,启动阶段的内存在实模式是直接访问物理地址,但保护模式下分页开启,所以内核需要处理线性地址到物理地址的映射。 需要注意的是,用户空间直接分配连续物理内存几乎不可能,通常需要内核模块的帮助。比如通过CMA分配,然后导出到用户空间。或者使用dma_alloc_coherent函数,这个函数会返回物理地址连续的缓存,适用于DMA。 另外,用户提到ioremap,这个函数用于将物理地址映射到内核的虚拟地址空间,可能和DMA有关联,但主要是用于访问设备内存,而不是分配内存。 总结下来,可能的分配方法包括: 1. 使用dma_alloc_coherent函数 2. 使用CMA机制 3. 启动时预留内存 4. 内核模块中使用kmalloc或vmalloc(但vmalloc不保证物理连续) 5. 用户空间通过mmap映射/dev/mem(需要内核支持,且有安全隐患) 需要具体说明每种方法的机制和示例。比如dma_alloc_coherent的用法,以及CMA的配置步骤。同时,用户空间的例子可能需要内核模块配合,比如分配内存后通过ioctl或者mmap暴露给用户程序。 可能的问题点:用户是否需要用户空间的解决方案,还是内核驱动的?根据问题描述,用户可能是在开发驱动或需要在内核中分配,但问题提到“用于DMA操作”,通常驱动中处理。因此,重点在内核的分配方法。 另外,引用3中的例子是在ARM架构,可能需要注意平台差异,比如x86没有独立DMA控制器,所以可能无法直接应用相同的方法。 所以,回答应该涵盖内核中的分配方法,如dma_alloc_coherent,CMA,启动预留,以及可能的用户空间方法,但指出其限制。同时给出代码示例,比如模块中使用dma_alloc_coherent,并说明如何配置CMA。</think>### Linux DMA连续物理内存分配方法 在Linux系统中为DMA操作分配连续物理内存需要特殊处理机制。以下是五种主要方法及其实现原理和示例: #### 1. **DMA专用API(推荐方法)** 内核提供`dma_alloc_coherent()`接口直接分配物理连续内存: ```c // 驱动代码示例 void *dma_addr; dma_handle = dma_alloc_coherent(dev, size, &dma_addr, GFP_KERNEL); ``` - **特点**:自动处理缓存致性 - **限制**:最大分配尺寸由平台DMA限制决定(通常32-128MB) - **物理连续性保证**:通过DMA区域预分配实现[^3] #### 2. **CMA连续内存分配器** 在设备树中预留CMA区域: ```dts reserved-memory { #address-cells = <1>; #size-cells = <1>; ranges; my_region: region@80000000 { compatible = "shared-dma-pool"; reg = <0x80000000 0x10000000>; no-map; }; }; ``` 驱动中通过DMA API自动使用CMA区域,需要内核配置`CONFIG_DMA_CMA` #### 3. **启动阶段内存预留** 在内核启动参数中添加: ```bash mem=1G@0x0 mem=1G@0x40000000 ``` - **原理**:通过`memmap=`参数保留未映射物理内存区域 - **使用方式**:后续通过`ioremap`映射保留区域[^4] #### 4. **kmalloc特殊标志** ```c void *buf = kmalloc(size, GFP_DMA | GFP_KERNEL); ``` - **适用场景**:小内存分配(通常<4MB) - **实现机制**:从DMA Zone直接分配 #### 5. **用户空间映射(需root权限)** ```c // 通过/dev/mem映射 int fd = open("/dev/mem", O_RDWR); void *mem = mmap(NULL, size, PROT_READ|PROT_WRITE, MAP_SHARED, fd, phys_addr); ``` - **限制**:需要内核关闭`CONFIG_STRICT_DEVMEM`保护 - **风险**:直接物理内存访问可能引发系统崩溃[^1] #### 物理地址验证方法 ```shell # 通过sysfs查看物理地址 cat /sys/kernel/debug/dma_mapping/allocations # 内核调试接口 echo phys_addr > /proc/iomem ``` #### 架构差异注意 - x86平台依赖IOMMU进行地址转换 - ARM架构可直接使用物理地址(如RK3568开发板)[^3] - MIPS架构需要处理非致性缓存
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值