c++内存分配优先使用内存池

本文探讨了C++中new和delete操作的性能开销,包括它们如何转换为系统调用malloc和free的过程。文章还介绍了内存池的概念及其在提高性能方面的作用,特别是在大量对象频繁分配和释放的情况下。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

认识一下new和delete的开销:

new和delete首先会转调用到malloc和free,这个大家应该很熟识了。很多人认为malloc是一个很简单的操作,其实巨复杂,它会执行一个系统调用,从用户态转到内核态,该系统调用会锁住内存硬件,然后通过链表的方式查找空闲内存,如果找到大小合适的,就把用户的进程地址映射到内存硬件地址中,然后释放锁,返回用户态。delete是一个反过程。

相对的,如果不是使用堆分配,而是直接在栈上分配,比如类型int,那么开销就是把sp这个寄存器加上sizeof(int)。
内存池模式:

       内存池就是预先分配好,放到进程空间的内存块,用户申请与释放内存其实都是在进程内进行,SGI-STL的alloc遇到小对象时就是基于内存池的。只有当内存池空间不够时,才会再从系统找一块很大的内存。

       内存池模式是如此之重要,以至于让我想不明白为什么四人帮那本《设计模式》没有把内存池列为基本模式,目前其它的教材,包括学院教材,实践教材都没有列出这个模式(讲线程池模式的教材倒非常多)。可能他们认为这不属于设计,而属于具体实现吧。但我觉得这样的后果是间接把很多c++ fans带向低效的编码方式。

sun公司就挺喜欢搞一些算法,用c++实现与java实现一遍,结果显示c++的效率有时甚至比java低,很多c++高手看了之后都会觉得很难解,其实有玄机:java的new其实是基于内存池的,而c++的new是直接系统调用。
c++内存池模式的发展:

       c++98标准之前,基本上大多数程序员没用使用内存池,c++98 标准之后,内存池的使用也只是停留在STL内部的使用上,并没有得到推广。

       其实我认为,STL的内存分配模式是一场变革,它不但包含内存分配的革命,也包含了内存管理(这个话题先放一边)的革命,只是这场变革被很多人忽略了。也有一些人认为STL的内存分配方案有潜在问题,就是只管从系统分配,但却永远不会调用系统级的释放,如果使用不当,程序拿住的内存会越来越多。我自己工作过的项目没遇上过这样的问题,但之前营帐报表组的一个容灾项目倒是遇上了。不过STL的内存模式没有推广最大的原因还是因为alloc不是标准组件,以至于被人忽略了。

       STL之后,一些c++ fans们开始搞出了几套内部使用的内存池。为了项目需要,我自己也曾经做过一个。但这些都没有很正式的公开,而且也不完美。

       大概在200x年(-_-!),主导c++标准的一群牛人发起了一个叫boost的项目,才正式的把内存池带到实用与标准化阶段。

插入一点题外话:关于boost,很多人(包括我自己也曾经)产生误解,认为它是准标准库,是下一代标准库。其实boost是套基础建设,用来证明哪些方案是可行,哪些是不可行的,它里面的一些组件有可能会出局,也有可能不是以库的方式存在,而是以语言核心的方式存在,下一代标准库名字叫TR1,再一下代叫TR2(我对使用TR这个名字很费解,为什么不统一叫STL呢)。
new,delete调用与内存池调用的效率对比:

讲了这么多费话,要到关键时候了,用事例来证明为什么要优先使用内存池。下面这段代码是我很久以前的一段测试案例,细节上可能有点懂难,但流程还是清晰的:

#include <time.h>
#include <boost/pool/object_pool.hpp>

struct CCC
{
    CCC() {}
    char data[10];
};

struct SSS
{
    SSS() {}
    short data[10];
};
struct DDD
{
    DDD() {}
    double data[10];
};

// 把new,delete封装为一个与boost::object_pool一样的接口,以便于测试
template <typename element_type, typename user_allocator = boost::default_user_allocator_malloc_free>
class new_delete_alloc
{
public:
    element_type* construct() { return new element_type; }
    void destroy(element_type* const chunk) { delete chunk; }
};
template
<
    template<typename, typename>
    class allocator
>
double test_allocator()
{
    // 使用了一些不规则的分配与释放,增加内存管理的负担
    // 但总体流程还是很规则的,基本上不产生内存碎片,要不然反差效果会更大。
    allocator<CCC> c_allc;
    allocator<SSS> s_allc;
    allocator<DDD> d_allc;
    double re = 0; // 随便作一些运算,仿止编译器优化掉内存分配的代码
    for (unsigned int i = 0; i < 10000; ++i)
    {
        for (unsigned int j = 0; j < 10000; ++j)
        {
            CCC* pc = c_allc.construct();
            SSS* ps = s_allc.construct();
            re += pc->data[2];
            c_allc.destroy(pc);
            DDD* pd = d_allc.construct();
            re += ps->data[2];
            re += pd->data[2];
            s_allc.destroy(ps);
            d_allc.destroy(pd);
        }
    }
    return re;
}

int main(int argc, char* argv[])
{
    double re1 = 0;
    double re2 = 0;
    // 运行内存池测试时,基本上对我机器其它进程没什么影响
    time_t begin = time(0);
    re1 = test_allocator<boost::object_pool>(); // 使用内存池boost::object_pool
    time_t seporator = time(0);
    // 运行到系统调用测试时,感觉机器明显变慢,
    // 如果再加上内存碎片的考虑,对其它进程的影响会更大。
    std::cout << long(seporator - begin) << std::endl;
    re2 = test_allocator<new_delete_alloc>();           // 直接系统调用
    std::cout << long(time(0) - seporator) << std::endl;
    std::cout << re1 << re2 << std::endl;
}
总结:

在一个100000000次的循环中,使用内存池是3秒,使用系统调用是93秒。

可能会有人觉得100000000这个数很大,93秒没什么,但想一下,一个表有几千万行是很正常的,如果每行有十多列,每列有数据类型,数据长度,数据内容。如果在这样的一个循环错误的使用了new和delete。

而且以上测试还没有考虑到碎片的影响,以及运行该程序时对其它程序的影响。而且还有一点,就是机器的内存硬件容量越大,内存分配时,需要搜索的时间就可能越长,如果内存是多条共同工作的,影响就再进一步。

什么算是错误的使用呢,比如返回一个std::string给用户,有人觉得new出来返回指针给用户会更好,你可能会想到如果new的话,只产生一次string的构造,如果直接返回对象可能需要多次构造,所以new效率更高。但事实不是这样,虽然在构造里会有字符串的分配,但其实这个分配是在内存池中进行的,而你直接的那个new就肯定是系统调用。

当然,有些情况是不可说用什么就用什么的,但如果可选的话,优先使用栈上的对象,其次考虑内存池,然后再考虑系统调用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值