内存分配器—TcMalloc

TCMalloc是一种高性能的内存分配器,通过维护线程缓存(Front-end)和中间层(Middle-end)以及后端(Back-end)来实现高效的内存分配。线程缓存分为per-thread和per-CPU模式,减少锁竞争,提高多线程环境下的性能。内存分配按对象大小分大小对象,小对象通过size-class优化内存浪费,大对象直接从后端分配。释放内存时,小对象返回前线缓存,大对象直接归还后端。此外,TCMalloc还包括对大页内存的管理,以适应不同场景的需求。

特性

  1. 高性能。大多数对象的分配和释放都不需要产生太多的竞争,因为tcmalloc 维护了thread-cache 来提供当前线程的内存分配需求。所以,应用大多数的内存申请需求不会有锁的竞争,而且在多核场景有较好的扩展性。

  2. 灵活的使用内存资源。用户不使用的内存,tcmalloc会选择服复用或者归还操作系统。

  3. 降低了每个请求的内存开销。通过分配相同大小的page 降低内存使用的开销,这在小对象场景较为有效。

  4. 内部信息统计开销较低。能够开启细粒度的应用内存占用信息,来帮助用户展示tcmalloc内部内存使用的细节。

架构

在这里插入图片描述
Front-end,主要维护线程cache,用来为应用提供 快速分配以及释放内存的需求。

Middle-end,主要负责为font-end 中的thread-cache 填充内存。

back-end,负责从os直接获取内存。

需要注意的是front-end 的 thread-cache 可以在每一个cpu下维护 或者 每一个线程下维护,back-end 则能够支持大内存的pageheap管理,也能支持小内存的pageheap 管理。

TCMalloc Front-end

  1. Front-end 提供了Cache ,能够缓存一部分内存 用来分配给应用 ,也能够持有应用释放的内存。这个Cache 作为per-cpu/per-thread 存在,其同一时刻只能由一个线程访问,所以本身不需要任何的锁,这也是多线程下内存分配释放高效的原因。

  2. 如果Front-end 持有的内存大小足够,其能够满足应用线程任何内存需求。如果持有的内存为空了,那它会从 middle-end 组件请求一批内存页进行填充。

  3. 如果用户请求的内存大小超过了front-end 本身能缓存的大小(大内存需求),或者middle-end 缓存的内存页也被用尽了,那这个时候会直接让从back-end分配内存给用户。

  4. Front-end 在 TCMalloc 的演进过程中有两种类型的实现:

  5. 最开始的时候只支持 per-thread 的cache 模式,这也是TCMalloc 名字 Thread-Cacheing malloc的由来。然而这种场景会随着用户线程的大量增加,出现了一些内存问题:每个线程只能有极小的thread-cache,需要消耗较多的CPU资源来聚合每个线程的内存资源。

  6. 较新版本的TCMalloc 支持了 per-CPU 模式。这种模式下每一个逻辑CPU 会有自己的的thread-cache 用来为运行在这个cpu的现场分配内存。在x86系统上,每一个逻辑cpu 和 一个超线程等价,我们lscpu 命令看到的cpu core是包括超线程的个数在内的。

小对象和大对象的内存分配过程

  1. 针对小内存对象的分配,Front-end的cache 会按照其大小将其映射到 60-80个size-classes 中的一个,实际的内存分配会按照该大小对应的size-class 的大小进行分配,size-class也是front-end 分配内存的粒度。

  2. 比如12B 的对象会best-fit到16B 的size-class中。设置这么多的size-class 还是为了尽可能得降低内存的浪费,比如原本的内存分配粒度都是2的n次幂,那对于23字节的内存需求就需要分配一个32字节的内存区域,而在tcmalloc的size-class的配置中只需要分配24字节即可。

  3. Tcmalloc 在编译的时候可以配置 size-class 的 内存分配是按照多少 Bytes 对齐,比如指定了__STDCPP_DEFAULT_NEW_ALIGNMENT__ <= 8,那size-class 内部可选的内存大小配置就是 8bytes 对齐,即8 bytes的倍数。如果编译时指定了大于 8bytes,那后续所有的 ::operator new 的内存申请都会按照 16 bytes 进行对齐。

  4. 对于大内存需求的对象来说,内存大小的需求超过kMaxSize 256K,则会直接从back-end 分配。因此,这一部分的内存需求不会缓存再 front-end 以及 middle-end 中,由back-end的page-heap 进行管理。对于大内存对象的实际内存分配会按照tcmalloc page size 进行对齐。

内存释放过程

  1. 如果要释放一个对象,编译期间如果能够知道这个对象的大小,编译器会直接告诉分配器这个对象的大小。大多数的时候,编译期间并不清楚对象的大小,会从pagemap中查找这个对象。如果这个对象是一个小内存对象,释放的时候会告诉front-end cache进行管理,如果是一个超过kMaxSize 的对象,则会直接释放给back-end 的 pageheap。

Per-CPU mode

  1. Per-cpu mode 和 per-thread mode 是 tcmalloc 的font-end 主体部分的两种模式。因为per-thread mode 受到系统进程的线程数的影响,在大量线程的情况下会让每个thread-cache 只能够处理一小部分的内存申请释放需求,还会消耗大量的cpu 来 由middle-end 进行不同thread-cache 之间的内存迁移。

  2. tcmalloc 提供了优化版本的 per-cpu mode,即每一个逻辑核 维护一个 ‘cpu-cache’ ,用来处理运行在当前核的线程的内存申请/释放需求。

在这里插入图片描述

  1. Per-cpu mode 下会申请一个大内存块(也可以称为slab),这个slab 会被多个cpu共享,其中每一个cpu会 持有slab 的一部分内存,并在其上存储一系列元数据管理对应线程的内存对象。

  2. 上图中的cpu1 会管理 on slab 的绿色部分内存区域,在这一部分区域中会先存储一些元数据和指针来管理不同大小的 size-classes 的内存对象。其中元数据中包含一个header指针 和 每一个size-class 的索引block。

  3. 每一个size-class 的header 指针数据结构会有指向某一种实际存储内存对象的指针数组,即是一个数组,每一个元素是一个指针,总共是三个指针,分别指向这一种size-class 内存对象区域的起始地址块,当前地址块(后续分配这个size-class 大小对象的时候会从current 开始分配),最大地址。

  4. 每一个cpu 能够缓存的内存大小是通过SetMaxPerCpuCacheSize 配置的,也就是当前font-end 能够缓存的内存总大小取决去当前系统的cpu核心数,拥有更好核心数的机器使用tcmalloc 能够缓存更多的内存。为了避免 perf-cpu 长时间持有内存,tcmalloc 允许通过MallocExtension::ReleaseCpuMemory 接口来 指定释放某一个cpu的内存。

// 设置每一个cpu 能够cache住的内存大小
void MallocExtension::SetMaxPerCpuCacheSize(int32_t value) {
#if ABSL_INTERNAL_HAVE_WEAK_MALLOCEXTENSION_STUBS
  if (MallocExtension_Internal_SetMaxPerCpuCacheSize == nullptr) {
    return;
  }

  MallocExtension_Internal_SetMaxPerCpuCacheSize(value); // 实际的执行函数
#else
  (void)value;
#endif
}

// 释放某一个cpu cache的内存
size_t MallocExtension::ReleaseCpuMemory(int cpu) {
#if ABSL_INTERNAL_HAVE_WEAK_MALLOCEXTENSION_STUBS
  if (MallocExtension_Internal_ReleaseCpuMemory != nullptr) {
    return MallocExtension_Internal_ReleaseCpuMemory(cpu);
  }
#endif
  return 0;
}

  1. 当每一个cpu cache 的内存被分配耗尽,想要从 middle-end 获取内存来缓存更多的对象时,也需要考虑对size-class进行扩容。如果这个size-class 的内存分配需求还在持续增加,则这个size-class的容量会持续增加,直到达到这个size-class 容量的hard-code。

Per-thread mode

用户可以指定使用某一个thread 的cache,也就是指定thread-local cache。小内存的申请和释放会根据thread-cache的需求在middle-end 之间迁移。

每一个 thread-cache 内部 不同size-class 对象会各自构造一个单链表(如果有 n 个size-classes,也就会有对应 n 个单链表),类似如下图:
在这里插入图片描述
分配某一个对应size-class 对象的时候,对应 size-class 链表对象会被从单链表移除(free-list),表示这个指针对应地址的内存可以被用户使用。释放对象的时候,则会将这个对象地址追加到thread-cache 管理的 size-class 的链表。

在这个过程中,如果thread-cache 管理的内存不够,或者超限,则会从 middle-end 获取更多的内存对象或者将多余的内存对象释放给 middle-end。

对于per-thread caches来说,可以通过 MallocExtension::SetMaxTotalThreadCacheBytes 设置最大的可用内存大小。每一个线程有自己的最小的 thread-cache 大小 KMinThreadCacheSize 512K,如果当前线程内存申请需求较大,内存容量也会通过middle-end 将其他线程的可用内存迁移到当前线程。

通过 middle-end 来协调当前的thread-cache 内存,通过ThreadCache::Scavenge(); 进行。

如果当前线程退出,则会将自己的thread-cache 的内存返回给 middle-end。

per-cpu 和 per-thread 运行时内存管理算法对比

对于thread-cache 和 per-cpu cache来说,在应用程序运行的时候如果 front-end 的cache 内存太小,那就需要频繁从 central-freelist 也就是 middle-end 中获取内存;

但如果太大,就会让过多的内存被闲置。如何配置一个合理的 front-end cache 的大小,这里两种模式都提供了动态配置 cache大小的算法。

Per-thread 模式下,cache 内部的最大存储对象容量 达到当前最大阈值时就会从middle-end 获取更多的对象,从而增大这个限制。

降低最大限制的前提是发现了较多的未被使用的对象,则会将这一些对象根据需求还给middle-end。

Per-cpu 模式下,增加cache 容量的前提是当前cache 是否在频繁的从 middle-end 获取内存 以及 释放内存交替,则需增加容量限制,有更多的空间来缓存这一些内存对象。

降低容量限制的前提是发现有一些空闲容量长时间没有被使用。

这里在代码细节上有很多的设计,比如如何设置合理的空闲时间的长度?如何界定 内存申请是频繁的?都是一些动态规划的最优思想的设计,值得去探索代码细节。

TCMalloc Middle-end

到此,font-end 部分大体设计描述完。从前面的设计中可以看到,middle-end 的作用在 per-cpu和per-thread 模式都有非常重要的作用。

Middle-end 的主要作用为 font-end 提供内存申请需求,并将空闲内存返回给 back-end。

Middle-end 的组成主要有 Transfer cache 和 Central free list。对于每一个size-class,都会有有一个各自的 transfer cache 和 central free list。这一些caches 会有自己的 mutex lock,所以对于这一些cache的访问, 因为锁粒度较低,则不会有过多的冲突,保证了访问的性能。

Transfer Cache

当 front-end 请求内存 或者 释放内存的时候,会先到达 transfer cache。

Transfer cache 会持有 一个数组指针进行内存的释放 或者 将新的内存对象填充进来并返回给font-end。

Transfer cache 会将一个cpu/tthread 释放的内存分配给另一个cpu/thread 对内存的需求,这个类似于内存池的 内存对象流动在两个不同的cpu/threads 之间可以非常迅速。

Central Free List

Central free list 通过 span 数据结构来管理内存,一个span 可以管理一个或者多个tcmalloc page,span 数据结构会在下文详细描述。

Font-end 如果从 central free list 请求一个或者多个内存对象的时候,central free list 会从span中提取对应大小的对象,如果此时span 没有足够的pages 返回,则会从back-end 请求更多的span。

当内存对象返回给central free list,则这一些对象会通过 pagemap 被映射到对应的span中进行管理,如果所有的对象都返回给span,这个span就可以被释放给back-end.

Pagemap 和 Spans

tcmalloc 管理的堆内存会在编译期间确定一个page-size,并将这么多内存映射为对应size的一个个page。一系列正在被使用的pages 可以被一个span 对象描述,一个span 对象可以管理一个大的内存对象,也可以按照size-class 管理多个小对象。

pagemap 则是用来查找一个内存对象属于哪一个span的,或者申请一个指定size-class 的内存对象。pagemap 是一个 2层或者3层的 radix-tree。下图展示了一个两层的 page-map 如何管理 span的,其中 spanA 管理了2个page,spanB 管理了三个page。
在这里插入图片描述

Span 这个数据结构 在 middle-end中用来 管理回收的内存对象;在back-end 用来管理 对应大小的pages,负责给central-list 提供对应大小的span。

TCMalloc Backend

tcmalloc 的back-end 主要有三个工作线程:

管理未使用的大块内存区域
负责从 os 中获取内存,来满足其他组件的内存需求
负责将其他组件不需要返回的内存,还给os
还有两个后端组件:

legacy pageheap. 管理tcmalloc 的pages
管理大页内存的 pageheap。用来提升应用程序大页内存的申请需求,降低TLB的miss。

Legacy Pageheap

legacy pageheap 是一个数组的freelist,统一管理可用内存页。数组的每一个节点是一个free list,也就是单链表。一般这个数组的大小 k < 256,对于第k 个数组元素来说,它的链表中的每一个节点都管理了 k 个pages。

在这里插入图片描述

如果想要申请 k 个pages,则直接查找这个数组的第k 个元素,从free list中取一个节点即可。如果这个free list是空的,那就查找下一个数组元素的free list,直到找到一个非空的free list。如果还是失败,则直接mmap 获取内存。

当一段连续的pages 被返回给了pageheap,则会根据当前pages 是否能够形成一个连续的pages区域,然后串联这一些pages 并根据page数量 添加到对应的free list中。

大页场景分配器设计

针对hugepage 的分配器设计 是希望其能够有效持有 hugepage 大小的内存块,需要的时候能够快速分配,不需要的时候也能在合理的内存占用情况下释放给操作系统。

hugepage 在x86 系统上一般是2M 及 以上的大小,tcmalloc 的back-end 拥有三个不同的cache 来管理大页内存的分配:

filler cache。能够持有hugepage ,并提供一些大页内存的申请需求。类似于legacy pageheap,通过一些free lists 管理pages 那样管理huge page,主要用于处理小于hugepage 大小的内存申请。
region cache。用于大于hugepage 大小的内存申请,这个cache 允许分配多个连续的hugepage。
hugepage cache。和region cache的功能有点重复,也是用于分配大于hugepage 的内存申请

### jemalloc 和 tcmalloc 的特性、性能及使用场景 #### 特性对比 jemalloc 是由 FreeBSD 社区开发的一种高效内存分配器,其设计目标是在多核环境下提供低延迟和高吞吐量的内存管理能力。它通过分区技术减少争用,并支持动态调整以适应不同的工作负载[^1]。 相比之下,tcmalloc (Thread-Caching Malloc) 是 Google 开发的一款高性能内存分配器,专注于降低多线程环境下的锁开销。它的主要特点是为每个线程维护了一个本地缓存池,从而减少了全局锁的竞争频率[^2]。 两者都针对现代多线程应用进行了优化,但在实现细节上存在显著区别: - **线程级缓存机制**: tcmalloc 更注重于利用线程级别的缓存来提升效率,在处理小对象分配时表现尤为突出。这种设计使得即使在线程数量增加的情况下也能保持较低的延迟[^3]。 - **区域划分与碎片控制**: jemalloc 引入了一种称为“arena”的概念,用于将不同线程的操作分布到多个独立区域内完成,以此进一步缓解因频繁访问共享数据结构而导致的瓶颈问题[^1]。 #### 性能比较 在实际测试中可以观察到如下趋势: - 对于高度并行化的程序来说,jemalloc 能够带来更明显的事务处理速率(Transactions Per Second,TPS)增益效果[^1]; - 当涉及到大量小型对象快速创建销毁操作时,则可能看到 tcmalloc 展现出更强的优势因为它的内部实现了专门针对这种情况所做的改进措施[^3]; 具体数值上的差异取决于具体的硬件配置以及应用程序本身的特征等因素影响较大无法一概而论但从总体上看这两种方案都能够有效改善传统标准库函数所提供的解决方案所面临的一些局限之处如扩展性和可伸缩性等方面不足等问题[^2]。 #### 使用场景建议 选择合适的工具应该基于项目需求考虑以下几个方面因素综合判断最佳选项 : 对于那些追求极致效能并且运行环境中存在着众多相互协作工作的进程实例的应用场合而言 , 如果希望获得更好的整体系统响应时间同时又能很好地平衡资源利用率那么采用 jemalloc 可能是一个不错的选择因为它具备良好的抗干扰能力和稳定性特别适合长时间稳定运转的服务端软件部署方案之中[^1] ; 另一方面如果当前正在构建的是一个需要不断生成短生命周期临时变量的数据密集型计算框架或者是图形渲染引擎之类的复杂体系架构则可能会倾向于选用 tcmalloc 来作为默认替代品由于后者在这方面有着得天独厚的技术积累可以帮助开发者轻松应对各种极端条件挑战同时也简化了很多底层逻辑编写过程中的繁琐环节提升了研发效率降低了维护成本等等好处不胜枚举. ```python import time from multiprocessing import Pool def test_memory_allocator(func): start_time = time.time() with Pool() as pool: results = pool.map(func, range(100)) end_time = time.time() return end_time - start_time # Example function to simulate workload def allocate_and_free(i): data = bytearray(1024 * i) del data if __name__ == "__main__": elapsed_tcmalloc = test_memory_allocator(allocate_and_free) print(f"Elapsed Time with TCMalloc: {elapsed_tcmalloc:.6f} seconds") # Assuming switching allocator is possible here for demonstration purposes only. elapsed_jemalloc = test_memory_allocator(allocate_and_free) print(f"Elapsed Time with JEMalloc: {elapsed_jemalloc:.6f} seconds") ``` 上述代码片段展示了如何在一个简单的 Python 程序里测量两种不同类型的内存分配器执行相同任务所需耗费的时间长短情况以便直观感受它们之间存在的差距大小关系。 --- 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值