内存_内存池

本文深入探讨了Linux内核中的内存池mempool技术。介绍了mempool的基本概念、工作原理及其在内核中的实现细节。通过源码分析,展示了mempool如何在内存紧张时保证关键应用内存分配的成功率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

    内存池(Memery Pool)技术是在真正使用内存之前,先申请分配一定数量的、大小相等(一般情况下)的内存块留作备用。当有新的内存需求时,就从内存池中分出一部分内存块,若内存块不够再继续申请新的内存。这样做的一个显著优点是尽量避免了内存碎片,使得内存分配效率得到提升。 

    不仅在用户态应用程序中被广泛使用,同时在Linux内核也被广泛使用,在内核中有不少地方内存分配不允许失败。作为一个在这些情况下确保分配的方式,内核开发者创建了一个已知为内存池(或者是 "mempool" )的抽象,内核中内存池真实地只是相当于后备缓存,它尽力一直保持一个空闲内存列表给紧急时使用,而在通常情况下有内存需求时还是从公共的内存中直接分配,这样的做法虽然有点霸占内存的嫌疑,但是可以从根本上保证关键应用在内存紧张时申请内存仍然能够成功。
    下面看下内核内存池的源码,内核内存池的源码在<mm/mempool.c>中,实现上非常简洁,描述内存池的结构mempool_t在头文件<linux/mempool.h>中定义,结构描述如下:
  1. typedef struct mempool_s {
  2.     spinlock_t lock;/*保护内存池的自旋锁*/
  3.     int min_nr;/*内存池中最少可分配的元素数目*/
  4.     int curr_nr;/*尚余可分配的元素数目*/
  5.     void **elements;/*指向元素池的指针*/
  6.     void *pool_data;/*内存源,即池中元素真实的分配处*/
  7.     mempool_alloc_t *alloc; /*分配元素的方法*/
  8.     mempool_free_t *free;/*回收元素的方法*/
  9.     wait_queue_head_t wait;/*被阻塞的等待队列*/
  10. } mempool_t;

内存池的创建函数mempool_create的函数原型如下:

  1. mempool_t *mempool_create(int min_nr, mempool_alloc_t*alloc_fn,
  2.                 mempool_free_t *free_fn, void *pool_data)
  3. {
  4.     return mempool_create_node(min_nr,alloc_fn,free_fn, pool_data,-1);
  5. }
函数原型指定内存池可以容纳元素的个数、申请元素的方法、释放元素的方法,以及一个可选的内存源(通常是一个cache),内存池对象创建完成后会自动调用alloc方法从pool_data上分配min_nr个元素用来填充内存池。
内存池的释放函数mempool_destory函数的原型很简单,应该也能猜到是依次将元素对象从池中移除,再释放给pool_data,最后释放池对象,如下:
  1. void mempool_destroy(mempool_t*pool)
  2. {
  3.     while (pool->curr_nr){
  4.         void *element= remove_element(pool);
  5.         pool->free(element, pool->pool_data);
  6.     }
  7.     kfree(pool->elements);
  8.     kfree(pool);
  9. }

值得注意的是内存池分配和回收对象的函数:mempool_alloc和mempool_free。mempool_alloc的作用是从指定的内存池中申请/获取一个对象,函数原型如下:

  1. void * mempool_alloc(mempool_t*pool, gfp_t gfp_mask){
  2. ......
  3.     element = pool->alloc(gfp_temp, pool->pool_data);
  4.     if (likely(element!= NULL))
  5.         return element;

  6.     spin_lock_irqsave(&pool->lock, flags);
  7.     if (likely(pool->curr_nr)){
  8.         element= remove_element(pool);/*从内存池中提取一个对象*/
  9.         spin_unlock_irqrestore(&pool->lock, flags);
  10.         /* paired with rmbin mempool_free(), read comment there*/
  11.         smp_wmb();
  12.         return element;
  13.     }
  14. ......
  15.     
  16. }

函数先是从pool_data中申请元素对象,当从pool_data无法成功申请到时,才会从池中提取对象使用,因此可以发现内核内存池mempool其实是一种后备池,在内存紧张的情况下才会真正从池中获取,这样也就能保证在极端情况下申请对象的成功率,单也不一定总是会成功,因为内存池的大小毕竟是有限的,如果内存池中的对象也用完了,那么进程就只能进入睡眠,也就是被加入到pool->wait的等待队列,等待内存池中有可用的对象时被唤醒,重新尝试从池中申请元素:

  1.     init_wait(&wait);
  2.     prepare_to_wait(&pool->wait,&wait, TASK_UNINTERRUPTIBLE);
  3.     spin_unlock_irqrestore(&pool->lock, flags);
  4.     io_schedule_timeout(5*HZ);
  5.     finish_wait(&pool->wait,&wait);

池回收对象的函数mempool_free的原型如下:

  1. void mempool_free(void *element, mempool_t *pool)
  2. {
  3. if (pool->curr_nr < pool->min_nr) {
  4. spin_lock_irqsave(&pool->lock, flags);
  5. if (pool->curr_nr < pool->min_nr) {
  6. add_element(pool, element);
  7. spin_unlock_irqrestore(&pool->lock, flags);
  8. wake_up(&pool->wait);
  9. return;
  10. }
  11. spin_unlock_irqrestore(&pool->lock, flags);
  12. }
  13. pool->free(element, pool->pool_data);
  14. }
其实原则跟mempool_alloc是对应的,释放对象时先看池中的可用元素是否充足(pool->curr_nr == pool->min_nr),如果不是则将元素对象释放回池中,否则将元素对象还给pool->pool_data。
    此外mempool也提供或者说指定了几对alloc/free函数,及在mempool_create创建池时必须指定的alloc和free函数,分别适用于不同大小或者类型的元素的内存池,具体如下:
  1. void *mempool_alloc_slab(gfp_t gfp_mask, void*pool_data)
  2. {
  3.     struct kmem_cache *mem = pool_data;
  4.     return kmem_cache_alloc(mem, gfp_mask);
  5. }
  6. void mempool_free_slab(void*element, void*pool_data)
  7. {
  8.     struct kmem_cache *mem = pool_data;
  9.     kmem_cache_free(mem,element);
  10. }

  11. void *mempool_kmalloc(gfp_t gfp_mask, void*pool_data)
  12. {
  13.     size_t size =(size_t)pool_data;
  14.     return kmalloc(size, gfp_mask);
  15. }
  16. void mempool_kfree(void*element, void*pool_data)
  17. {
  18.     kfree(element);
  19. }

  20. void *mempool_alloc_pages(gfp_t gfp_mask, void*pool_data)
  21. {
  22.     int order= (int)(long)pool_data;
  23.     return alloc_pages(gfp_mask, order);
  24. }
  25. void mempool_free_pages(void*element, void*pool_data)
  26. {
  27.     int order= (int)(long)pool_data;
  28.     __free_pages(element, order);
  29. }
    总体上来讲mempool的实现很简约,但是不简单,而且非常轻便易用,这也是内核奥妙之所在。

 

 

 

一、  初始化:  

  1.   
  2. int __init memory_pool_init(void)  
  3. {  
  4.     int i;  
  5.   
  6.     alloc_root = RB_ROOT;  
  7.     mutex_init(&alloc_mutex);  
  8.     for (i = 0; i < ARRAY_SIZE(mpools); i++) {  
  9.         mutex_init(&mpools[i].pool_mutex);  
  10.         mpools[i].gpool = NULL;  
  11.     }  
  12.   
  13.     return 0;  
  14. }  
  15.   
  16.   
  17. Mpools结构体如下,最多能存放8个,存放类型由平台自己决定:  
  18. #define MAX_MEMPOOLS 8  
  19. struct mem_pool mpools[MAX_MEMPOOLS];  
  20. struct mem_pool {  
  21.     struct mutex pool_mutex;  
  22.     struct gen_pool *gpool;  
  23.     unsigned long paddr;        //存放的是物理或者虚拟地址都可以。  
  24.     unsigned long size;         //pool 的size大小。  
  25.     unsigned long free;         //还有多少空闲部分可用。  
  26.     unsigned int id;  
  27. };  
  28.   
  29. 本平台定义的type如下:  
  30. enum {  
  31.     MEMTYPE_NONE = -1,  
  32.     MEMTYPE_SMI_KERNEL = 0,  
  33.     MEMTYPE_SMI,  
  34.     MEMTYPE_EBI0,  
  35.     MEMTYPE_EBI1,  
  36.     MEMTYPE_MAX,  
  37. };  
  38.   
  39. 下面函数是和平台相关,其中调用了kernel中的initialize_memory_pool函数,  
  40. 当然自己使用的时候也可用按照这种写法:  
  41. static void __init initialize_mempools(void)  
  42. {  
  43.     struct mem_pool *mpool;  
  44.     int memtype;  
  45.     struct memtype_reserve *mt;  
  46.   
  47.     //保留内存相关信息,其实type为MEMTYPE_EBI0部分才有size,  
  48. 因为平台用的就是EBI1接口的DDR。  
  49.     mt = &reserve_info->memtype_reserve_table[0];  
  50.     for (memtype = 0; memtype < MEMTYPE_MAX; memtype++, mt++) {  
  51.         if (!mt->size)  
  52.             continue;  
  53.         //依次将平台所用到的保留内存信息保存到mpool中。  
  54.         mpool = initialize_memory_pool(mt->start, mt->size, memtype);  
  55.         if (!mpool)  
  56.             pr_warning("failed to create %s mempool\n",  
  57.                 memtype_name[memtype]);  
  58.     }  
  59. }  
  60.   
  61. 好了,看公共的函数initialize_memory_pool:  
  62. struct mem_pool *initialize_memory_pool(unsigned long start,  
  63.     unsigned long size, int mem_type)  
  64. {  
  65.     int id = mem_type;  
  66.   
  67.     //类型不符合或者size小于4k就返回  
  68.     if (id >= MAX_MEMPOOLS || size <= PAGE_SIZE || size % PAGE_SIZE)  
  69.         return NULL;  
  70.   
  71.     mutex_lock(&mpools[id].pool_mutex);  
  72.   
  73.     mpools[id].paddr = start;   //保留内存的虚拟地址,注意是虚拟地址。  
  74.     mpools[id].size = size;     //能使用的总size  
  75.     mpools[id].free = size;     //空闲size,一开始肯定和总size一样。  
  76.     mpools[id].id = id;  
  77.     mutex_unlock(&mpools[id].pool_mutex);  
  78.   
  79.     pr_info("memory pool %d (start %lx size %lx) initialized\n",  
  80.         id, start, size);  
  81.     return &mpools[id];  
  82. }  
  83.   
  84. 二、  使用:  
  85. 平台提供了两种接口供我们分配mempool:allocate_contiguous_ebi 和 allocate_contiguous_ebi_nomap, 区别只在于是否map。  
  86. void *allocate_contiguous_ebi(unsigned long size,  
  87.     unsigned long align, int cached)  
  88. {  
  89.     return allocate_contiguous_memory(size, get_ebi_memtype(),  
  90.         align, cached);  
  91. }  
  92. EXPORT_SYMBOL(allocate_contiguous_ebi);  
  93.   
  94. unsigned long allocate_contiguous_ebi_nomap(unsigned long size,  
  95.     unsigned long align)  
  96. {  
  97.     return _allocate_contiguous_memory_nomap(size, get_ebi_memtype(),  
  98.         align, __builtin_return_address(0));  
  99. }  
  100. EXPORT_SYMBOL(allocate_contiguous_ebi_nomap);  
  101.   
  102. static int get_ebi_memtype(void)  
  103. {  
  104.     /* on 7x30 and 8x55 "EBI1 kernel PMEM" is really on EBI0 */  
  105.     if (cpu_is_msm7x30() || cpu_is_msm8x55())  
  106.         return MEMTYPE_EBI0;  
  107.     //平台返回的是这个。  
  108.     return MEMTYPE_EBI1;  
  109. }  
  110. 其实对应地就是调用了kernel的分配连续内存接口,就看allocate_contiguous_memory如何实现。  
  111.   
  112. void *allocate_contiguous_memory(unsigned long size,  
  113.     int mem_type, unsigned long align, int cached)  
  114. {  
  115.     //叶框对齐  
  116.     unsigned long aligned_size = PFN_ALIGN(size);  
  117.     struct mem_pool *mpool;  
  118.   
  119.     mpool = mem_type_to_memory_pool(mem_type);  
  120.     if (!mpool)  
  121.         return NULL;  
  122.     return __alloc(mpool, aligned_size, align, cached,  
  123.         __builtin_return_address(0));  
  124.   
  125. }  
  126.   
  127. 先看mem_type_to_memory_pool:  
  128. static struct mem_pool *mem_type_to_memory_pool(int mem_type)  
  129. {  
  130.     //取得mem_type对应的mpool.  
  131.     struct mem_pool *mpool = &mpools[mem_type];  
  132.   
  133.     //这里只有MEMTYPE_EBI1对应的size有赋值,  
  134. 所以其他的mpool都直接返回。  
  135.     if (!mpool->size)  
  136.         return NULL;  
  137.   
  138.     mutex_lock(&mpool->pool_mutex);  
  139.     //初始化gpool  
  140.     if (!mpool->gpool)  
  141.         mpool->gpool = initialize_gpool(mpool->paddr, mpool->size);  
  142.     mutex_unlock(&mpool->pool_mutex);  
  143.     if (!mpool->gpool)  
  144.         return NULL;  
  145.   
  146.     return mpool;  
  147. }  
  148.   
  149. static struct gen_pool *initialize_gpool(unsigned long start,  
  150.     unsigned long size)  
  151. {  
  152.     struct gen_pool *gpool;  
  153.   
  154.     //先创建gpool  
  155.     gpool = gen_pool_create(PAGE_SHIFT, -1);  
  156.   
  157.     if (!gpool)  
  158.         return NULL;  
  159.     //添加gen pool   
  160.     if (gen_pool_add(gpool, start, size, -1)) {  
  161.         gen_pool_destroy(gpool);  
  162.         return NULL;  
  163.     }  
  164.   
  165.     return gpool;  
  166. }  
  167.   
  168. struct gen_pool *gen_pool_create(int min_alloc_order, int nid)  
  169. {  
  170.     struct gen_pool *pool;  
  171.     //比较简单,分配gen_pool空间。  
  172.     pool = kmalloc_node(sizeof(struct gen_pool), GFP_KERNEL, nid);  
  173.     if (pool != NULL) {  
  174.         spin_lock_init(&pool->lock);  
  175.         INIT_LIST_HEAD(&pool->chunks);  
  176.         // min_alloc_order为PAGE_SHIFT =12.  
  177.         pool->min_alloc_order = min_alloc_order;  
  178.     }  
  179.     return pool;  
  180. }  
  181.   
  182. static inline int gen_pool_add(struct gen_pool *pool, unsigned long addr,  
  183.                    size_t size, int nid)  
  184. {  
  185.     return gen_pool_add_virt(pool, addr, -1, size, nid);  
  186. }  
  187.   
  188. int gen_pool_add_virt(struct gen_pool *pool, unsigned long virt, phys_addr_t phys,  
  189.          size_t size, int nid)  
  190. {  
  191.     struct gen_pool_chunk *chunk;  
  192.     //看意思是一个PAGE_SIZE作为一个bit来计算。  
  193.     int nbits = size >> pool->min_alloc_order;  
  194.     //nbits都存放在gen_pool_chunk的bits[0]数组中,用bitmap来管理。  
  195.     int nbytes = sizeof(struct gen_pool_chunk) +  
  196.                 (nbits + BITS_PER_BYTE - 1) / BITS_PER_BYTE;  
  197.   
  198.     //分配struct gen_pool_chunk空间。  
  199.     if (nbytes <= PAGE_SIZE)  
  200.         chunk = kmalloc_node(nbytes, __GFP_ZERO, nid);  
  201.     else  
  202.         chunk = vmalloc(nbytes);  
  203.     if (unlikely(chunk == NULL))  
  204.         return -ENOMEM;  
  205.     if (nbytes > PAGE_SIZE)  
  206.         memset(chunk, 0, nbytes);  
  207.   
  208.     chunk->phys_addr = phys; //保存物理地址,传进来的是-1,说明还没计算出来。  
  209.     chunk->start_addr = virt;    //其实这个值是虚拟或者物理地址都可以。如果是//物理地址,就调用allocate_contiguous_memory,会ioremap一次。否则使用//_allocate_contiguous_memory_nomap就可以了。  
  210.     chunk->end_addr = virt + size;    //chuank结束地址。  
  211.     atomic_set(&chunk->avail, size);  //保存当前chunk有效size到avail中。  
  212.   
  213.     spin_lock(&pool->lock);  
  214. //以rcu的形式添加到pool的chunks列表中。  
  215.   
  216.     list_add_rcu(&chunk->next_chunk, &pool->chunks);                   spin_unlock(&pool->lock);  
  217.   
  218.     return 0;  
  219. }  
  220.   
  221. 再看__alloc,要动真格了:  
  222. static void *__alloc(struct mem_pool *mpool, unsigned long size,  
  223.     unsigned long align, int cached, void *caller)  
  224. {  
  225.     unsigned long paddr;  
  226.     void __iomem *vaddr;  
  227.   
  228.     unsigned long aligned_size;  
  229.     int log_align = ilog2(align);  
  230.   
  231.     struct alloc *node;  
  232.   
  233.     aligned_size = PFN_ALIGN(size);  
  234.     //从gen pool去分配内存。  
  235.     paddr = gen_pool_alloc_aligned(mpool->gpool, aligned_size, log_align);  
  236.     if (!paddr)  
  237.         return NULL;  
  238.   
  239.     node = kmalloc(sizeof(struct alloc), GFP_KERNEL);  
  240.     if (!node)  
  241.         goto out;  
  242.   
  243.     //这里返回的肯定是物理内存,所以需要ioremap,调用、//_allocate_contiguous_memory_nomap那就不需要了。  
  244.     if (cached)  
  245.         vaddr = ioremap_cached(paddr, aligned_size);  
  246.     else  
  247.         vaddr = ioremap(paddr, aligned_size);  
  248.   
  249.     if (!vaddr)  
  250.         goto out_kfree;  
  251.   
  252.     node->vaddr = vaddr;  
  253.     //保留相对应参数到node节点中。  
  254.     node->paddr = paddr;  
  255.     node->len = aligned_size;  
  256.     node->mpool = mpool;  
  257.     node->caller = caller;  
  258.     //插入到红黑树中去管理。  
  259.     if (add_alloc(node))  
  260.         goto out_kfree;  
  261.   
  262.     mpool->free -aligned_size;  
  263.   
  264.     return vaddr;  
  265. out_kfree:  
  266.     if (vaddr)  
  267.         iounmap(vaddr);  
  268.     kfree(node);  
  269. out:  
  270.     gen_pool_free(mpool->gpool, paddr, aligned_size);  
  271.     return NULL;  
  272. }  
  273.   
  274. 分析关键函数gen_pool_alloc_aligned:  
  275. unsigned long gen_pool_alloc_aligned(struct gen_pool *pool, size_t size,  
  276.                      unsigned alignment_order)  
  277. {  
  278.     struct gen_pool_chunk *chunk;  
  279.     unsigned long addr = 0align_mask = 0;  
  280.     int order = pool->min_alloc_order;  
  281.     int nbits, start_bit = 0, remain;  
  282.   
  283. #ifndef CONFIG_ARCH_HAVE_NMI_SAFE_CMPXCHG  
  284.     BUG_ON(in_nmi());  
  285. #endif  
  286.   
  287.     if (size == 0)  
  288.         return 0;  
  289.   
  290.     if (alignment_order > order)  
  291.         align_mask = (1 << (alignment_order - order)) - 1;  
  292.       
  293.     //获取当前申请size所对应的nbits数量。  
  294.     nbits = (size + (1UL << order) - 1) >> order;  
  295.   
  296.     rcu_read_lock();  
  297.     //在当前pool的chunks列表上依次查询  
  298.     list_for_each_entry_rcu(chunk, &pool->chunks, next_chunk) {  
  299.         unsigned long chunk_size;  
  300.         if (size > atomic_read(&chunk->avail))  
  301.             continue;  
  302.         //本chunk所以拥有的总chunk size.  
  303.         chunk_size = (chunk->end_addr - chunk->start_addr) >> order;  
  304.   
  305. retry:  
  306.         //寻找未被使用区域的start bit位置  
  307.         start_bit = bitmap_find_next_zero_area_off(chunk->bits, chunk_size,  
  308.                                0, nbits, align_mask,  
  309.                                chunk->start_addr);  
  310.         //如果超出chunk size,那么再看下一个chunk。  
  311.         if (start_bit >= chunk_size)  
  312.             continue;  
  313.         //没超出那就设置nbits的大小表示这部分内存已经被使用了  
  314.         remain = bitmap_set_ll(chunk->bits, start_bit, nbits);  
  315.         if (remain) {  
  316.             remain = bitmap_clear_ll(chunk->bits, start_bit,  
  317.                          nbits - remain);  
  318.             BUG_ON(remain);  
  319.             goto retry;  
  320.         }  
  321.   
  322.         //获取当前申请size对应的address,这里为物理地址。  
  323.         addr = chunk->start_addr + ((unsigned long)start_bit << order);  
  324.         size = nbits << pool->min_alloc_order;  
  325.         //计算还有多少size可以供其他进程申请。  
  326.         atomic_sub(size, &chunk->avail);  
  327.         break;  
  328.     }  
  329.     rcu_read_unlock();  
  330.     return addr;  
  331. }  
  332.   
  333. 对于bitmap如何使用,这里就不具体追踪了,看函数名知道大概就可以了。  
  334.   
  335.   
  336.   
  337. 最后,我们看下_allocate_contiguous_memory_nomap,其实和上面的区别在于是否remap.  
  338. unsigned long _allocate_contiguous_memory_nomap(unsigned long size,  
  339.     int mem_type, unsigned long align, void *caller)  
  340. {  
  341.     unsigned long paddr;  
  342.     unsigned long aligned_size;  
  343.   
  344.     struct alloc *node;  
  345.     struct mem_pool *mpool;  
  346.     int log_align = ilog2(align);  
  347.   
  348.     mpool = mem_type_to_memory_pool(mem_type);  
  349.     if (!mpool || !mpool->gpool)  
  350.         return 0;  
  351.   
  352.     aligned_size = PFN_ALIGN(size);  
  353.     paddr = gen_pool_alloc_aligned(mpool->gpool, aligned_size, log_align);  
  354.     if (!paddr)  
  355.         return 0;  
  356.   
  357.     node = kmalloc(sizeof(struct alloc), GFP_KERNEL);  
  358.     if (!node)  
  359.         goto out;  
  360.   
  361.     node->paddr = paddr;  
  362.   
  363.     /* We search the tree using node->vaddr, so set  
  364.      * it to something unique even though we don't  
  365.      * use it for physical allocation nodes.  
  366.      * The virtual and physical address ranges  
  367.      * are disjoint, so there won't be any chance of  
  368.      * a duplicate node->vaddr value.  
  369.      */  
  370.     //区别就在于这一步,因为这个函数传进来的就是虚拟地址,所以我们没必要再ioremap了,直接使用。  
  371.     node->vaddr = (void *)paddr;  
  372.     node->len = aligned_size;  
  373.     node->mpool = mpool;  
  374.     node->caller = caller;  
  375.     if (add_alloc(node))  
  376.         goto out_kfree;  
  377.   
  378.     mpool->free -aligned_size;  
  379.     return paddr;  
  380. out_kfree:  
  381.     kfree(node);  
  382. out:  
  383.     gen_pool_free(mpool->gpool, paddr, aligned_size);  
  384.     return 0;  
  385. }  
  386.   
  387.   
  388. Mempool还是比较简单的,后续的ION的使用我们就会看到它使用了mempool了。  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值