项目--高并发内存池

本文详细介绍了使用C++实现一个高效的内存池,包括线程缓存(ThreadCache)、中心缓存(CentralCache)和页缓存(PageCache)。线程缓存通过哈希桶结构,每个线程拥有自己的内存块,减少了锁竞争。中心缓存管理大块内存,使用慢启动算法动态调整批量分配大小,而页缓存负责按页申请内存并管理。此外,文章还讨论了内存碎片问题、内存分配与释放的策略,以及如何优化内存池的性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习C++也有不少时日了,今天我们来学习一个项目,该项目是借鉴谷歌的tc-malloc,让我们一起来认识一下这个设计极其优秀的项目吧

需求分析

我们该项目利用了设计模式中的池化技术,在传统的内存池上进行了优化,该内存池可以有效地提高内存申请效率以及解决内存碎片化的问题

普通内存池的优缺点

我们先来回顾一下内存池的主要思路,就是预先开辟一大块内存,当我们程序需要使用内存时,直接从该大块内存中拿取一块,可以提高申请释放效率,而不需要再去new/malloc从堆中申请内存

优点:提高效率,解决部分内存碎片问题

缺点:无法处理高并发时申请内存存在的锁竞争问题,该问题会使效率降低

我们的内存池解决的问题就是上面这些问题

主要设计思路

高并发内存池整体框架由以下三部分组成,各部分的功能如下:

线程缓存(thread cache):每个线程独有线程缓存,主要解决多线程下高并发运行场景线程之间的锁竞争问题。线程缓存模块可以为线程提供小于64k内存的分配,并且多个线程并发运行不需要加锁。
中心控制缓存(central control cache):中心控制缓存顾名思义,是高并发内存池的中心结构主要用来控制内存的调度问题。负责大块内存切割分配给线程缓存以及回收线程缓存中多余的内存进行合并归还给页缓存,达到内存分配在多个线程中更均衡的按需调度的目的,它在整个项目中起着承上启下的作用。(注意:这里需要加锁,当多个线程同时向中心控制缓存申请或归还内存时就存在线程安全问题,但是这种情况是极少发生的,并不会对程序的效率产生较大的影响,总体来说利大于弊)
页缓存(page cache):以页为单位申请内存,为中心控制缓存提供大块内存。当中心控制缓存中没有内存对象时,可以从page cache中以页为单位按需获取大块内存,同时page cache还会回收central control cache的内存进行合并缓解内存碎片问题。

那么我们就从0开始对这个项目进行实现吧

thread cache整体设计

Thread cache结构设计

首先,我们思考一下,我们的这个内存池最主要的目的是什么?就是可以同时分配内存给不同的线程,基于这一点,参考我们内存池的设计,我们设计了一个成员是自由链表的哈希桶thread_cache的主要结构

watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5bmzICDnlJ8=,size_20,color_FFFFFF,t_70,g_se,x_16

从我们之前内存池的经验来看,我们将大小为8的内存块都链接到8字节的哈希桶上,大小为16的都链接到16字节的哈希桶上,但如果我们将哈希桶的每个内存块,都按照8字节大小的间隔来分的话,我们的哈希桶就会特别长,占用空间是极大的,所以我们采用分区分间隔的方式对哈希桶中字节大小进行设计,我们将0-126字节按照8字节对其,按照16字节对齐,1025到8*1024按照128字节对齐,当我们对需要1到8字节大小的内存块时,我们都给线程8字节大小的内存块,当我们需要128到144大小的内存块时,我们都给线程144大小的内存块,我们采用这样的策略将内存块分配给线程,虽然会产生一定的内碎片问题,但是浪费率却得到了有效的控制,都保持在了12%以下

NEXT函数的细节处理

在这个过程中有几处细节,首先是我们的自由链表,这个自由链表挂载的是内存块,其实为了方便我们后续内存块大小的不断增加,且为了寻找到下一个内存块,我们将内存块的前4/8字节大小的位置用于存储下一个内存块的地址,这样的设计就不需要我们单独为链表增加一份指针了

inline void*& NextObj(void* obj)
{
	return *((void**)obj);
}

我们将二级指针解引用,这样不管是处在32位机器,还是64位机器得到的一定是一份地址大小,我们就通过访问该结点的前4/8个字节获取下一节点的地址

freelist链表结构

class FreeList
{
public:
	void PushRange(void* start, void* end, int n)//将一个范围内(start到end)的n个结点插入自由链表
	{
		NextObj(end) = _head;//头插start到end进链表
		_head = start;//头变为start
		_size += n;//更新size
	}

	void PopRange(void*& start, void*& end, int n)//归还start到end间隔为n的对象
	{
		start = _head;
		for (int i = 0; i < n; ++i)
		{
			end = _head;
			_head = NextObj(_head);
		}

		NextObj(end) = nullptr;
		_size -= n;
	}

	// 头插
	void Push(void* obj)
	{
		NextObj(obj) = _head;
		_head = obj;
		_size += 1;
	}

	// 头删
	void* Pop()//将一份
	{
		void* obj = _head;
		_head = NextObj(_head);
		_size -= 1;

		return obj;
	}

	bool Empty()
	{
		return _head == nullptr;
	}

	size_t MaxSize()
	{
		return _max_size;
	}

	void SetMaxSize(size_t n)
	{
		_max_size = n;
	}

	size_t Size()
	{
		return _size;
	}

private:
	void* _head = nullptr;
	size_t _max_size = 1;
	size_t _size = 0;
};

映射细节处理

其次我们在将需要的字节映射到我们对应哈希桶的内存大小时,不采用%/的方式,而是将其优化为位运算的方式

static inline size_t _RoundUp(size_t bytes, size_t align)
	{
		return (((bytes)+align - 1) & ~(align - 1));//将不到对齐数的数对其[例,如果需要对齐到8,则将低三位全变为0即可,与16对其则将低4位变为0]
	}

只需要将对应比特位置0即可,比如我们需要9字节时,我们将9(1001)左移一位后将后三位置0,此时就映射到了16(10000)的位置,这样便在运算层面省去了%与/的大量复杂运算,优化了效率,当然,这两个函数我们用的频率极高,将其置为内联函数

static inline size_t RoundUp(size_t bytes)
	{
		//assert(bytes <= MAX_BYTES);

		if (bytes <= 128){
			return _RoundUp(bytes, 8);
		}
		else if (bytes <= 1024){
			return  _RoundUp(bytes, 16);
		}
		else if (bytes <= 8192){
			return  _RoundUp(bytes, 128);
		}
		else if (bytes <= 65536){
			return  _RoundUp(bytes, 1024);
		}
		else
		{
			return _RoundUp(bytes, 1 << PAGE_SHIFT);//一页大小
		}

		return -1;
	}

此时我们便完成了对于其需要freelist大小的映射,我们还需要找到对应哈希桶的下标

static inline size_t _Index(size_t bytes, size_t align_shift)
	{
		return ((bytes + (1 << align_shift) - 1) >> align_shift) - 1;
	}

	// 计算映射的哪一个自由链表桶
	static inline size_t Index(size_t bytes)
	{
		assert(bytes <= MAX_BYTES);

		// 每个区间有多少个链
		static int group_array[4] = { 16, 56, 56, 56 };
		if (bytes <= 128){
			return _Index(bytes, 3);
		}
		else if (bytes <= 1024){
			return _Index(bytes - 128, 4) + group_array[0];
		}
		else if (bytes <= 8192){
			return _Index(bytes - 1024, 7) + group_array[1] + group_array[0];
		}
		else if (bytes <= 65536){
			return _Index(bytes - 8192, 10) + group_array[2] + group_array[1] + group_array[0];
		}

		assert(false);

		return -1;
	}

这里我们采用相同的策略,只不过下标会从0开始,因此计算时先按照1开始计算,而后减去即可

TLS完成线程的无锁访问

当我们完成了Thread的基本结构后,我们还需要一个很重要的东西,那就是将内存分配给线程而不需要加锁的TLS,又称为线程本地存储,对于我们全局变量而言,所有线程去访问都只会是同一份,而某一个线程对其修改就会改变其值,所以就有了我们的TLS,对于每个线程而言都有自己的独一份,这样就完成了对每个线程的访问,所以也是不需要加锁的,因为访问的都是自己线程的那一份TLS,其静态实现原理就是每多创建一个线程就分配一块新的内存块

下面我们梳理一下整个ThreadCache的逻辑

主要功能

申请内存:

1.当内存申请size<=256KB,先获取到线程本地存储的thread cache对象,计算size映射的哈希桶自由链表下标i。
2.如果自由链表_freeLists[i]中有对象,则直接Pop一个内存对象返回。
3.如果_freeLists[i]中没有对象时,则批量从central cache中获取一定数量的对象,插入到自由链表并返回一个对象

释放内存:

1.当释放内存小于256k时将内存释放回thread cache,计算size映射自由链表桶位置i,将对象Push到_freeLists[i]

2.当链表的长度过长,则回收一部分内存对象到central cache

此时我们便明确了其对外部暴露的接口

class ThreadCache//线程缓存类
{
public:
	// 申请和释放内存对象
	void* Allocate(size_t size);//分配size大小的内存
	void Deallocate(void* ptr, size_t size);//回收size大小的内存

	// 从中心缓存获取对象
	void* FetchFromCentralCache(size_t index, size_t size);

	// 
### 回答1: import xgboost as xgb from sklearn.grid_search import GridSearchCV# 设置参数列表 param_grid = { 'max_depth': [3, 4, 5], 'learning_rate': [0.01, 0.1, 0.2], 'n_estimators': [200, 400, 600], 'subsample': [0.8, 1.0], 'colsample_bytree': [0.8, 1.0] } # 使用GridSearchCV进行搜索 xgb_model = xgb.XGBClassifier() grid_search = GridSearchCV(xgb_model, param_grid, verbose=1, cv=5) grid_search.fit(X_train, y_train) # 输出最优参数 best_parameters = grid_search.best_params_ print(best_parameters) ### 回答2: XGBoost是一种常用的梯度提升树算法,可以用于分类和回归问题。调参是优化模型性能的关键步骤。下面是一个关于XGBoost机器学习模型调参的Python代码示例: ```python import xgboost as xgb from sklearn.datasets import load_boston from sklearn.model_selection import GridSearchCV, train_test_split from sklearn.metrics import mean_squared_error # 载入数据集 data = load_boston() X, y = data.data, data.target # 划分训练集和验证集 X_train, X_valid, y_train, y_valid = train_test_split(X, y, test_size=0.2, random_state=42) # 定义模型 model = xgb.XGBRegressor() # 定义要搜索的超参数范围 param_grid = { 'n_estimators': [50, 100, 200], 'max_depth': [3, 4, 5], 'learning_rate': [0.1, 0.01, 0.001] } # 网格搜索调参 grid = GridSearchCV(model, param_grid, scoring='neg_mean_squared_error', cv=5) grid.fit(X_train, y_train) # 输出最佳参数和最佳得分 print("Best Parameters: ", grid.best_params_) print("Best Score: ", -grid.best_score_) # 使用最佳参数的模型进行预测 best_model = grid.best_estimator_ y_pred = best_model.predict(X_valid) # 计算均方误差 mse = mean_squared_error(y_valid, y_pred) print("Mean Squared Error: ", mse) ``` 在这个示例中,我们首先导入了必要的库,包括xgboost、sklearn.datasets等。然后我们使用`load_boston`函数载入一个波士顿房价的数据集,并将其划分为训练集和验证集。 接下来,我们定义了一个XGBoost回归模型,并定义了我们要搜索的超参数范围。在这个示例中,我们搜索了三个超参数:n_estimators(弱学习器的个数)、max_depth(树的最大深度)和learning_rate(学习率)。 然后,我们使用`GridSearchCV`函数进行网格搜索调参。其中,`scoring`参数指定了评估指标(负均方误差),`cv`参数指定了交叉验证的折数。 最后,我们输出了最佳参数和最佳得分。然后,使用最佳参数的模型进行预测,并计算了均方误差。 这是一个简单的示例,实际调参可能需要更的超参数和更复杂的搜索策略,但以上代码可以作为一个起点帮助你进行XGBoost模型调参。 ### 回答3: xgboost是一种强大的机器学习模型,但在使用过程中需要调参来优化模型的性能。下面是一个关于xgboost机器学习模型调参的Python代码示例: ```python import xgboost as xgb from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split from sklearn.metrics import mean_squared_error from sklearn.model_selection import GridSearchCV # 载入数据 boston = load_boston() X, y = boston.data, boston.target # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 构建xgb模型 xgbr = xgb.XGBRegressor() # 设置需要调参的参数 parameters = {'nthread': [4], 'objective': ['reg:squarederror'], 'learning_rate': [0.1, 0.01], 'max_depth': [3, 5, 7], 'min_child_weight': [1, 3, 5], 'subsample': [0.6, 0.8], 'colsample_bytree': [0.6, 0.8], 'n_estimators': [100, 200] } # 使用GridSearchCV进行调参 grid_search = GridSearchCV(estimator=xgbr, param_grid=parameters, scoring='neg_mean_squared_error', cv=5, n_jobs=-1) grid_search.fit(X_train, y_train) # 输出最佳参数和最佳得分 best_parameters = grid_search.best_params_ best_score = grid_search.best_score_ print("Best parameters: ", best_parameters) print("Best score: ", best_score) # 使用最佳参数训练模型 xgbr_best = xgb.XGBRegressor(**best_parameters) xgbr_best.fit(X_train, y_train) # 预测并计算均方误差 y_pred = xgbr_best.predict(X_test) mse = mean_squared_error(y_test, y_pred) print("Mean Squared Error: ", mse) ``` 以上代码使用了xgboost模型对波士顿房价数据进行预测,通过GridSearchCV调参获取最佳参数,并使用最佳参数训练模型,最后输出了预测结果的均方误差。你可以根据自己的需要,根据实际情况修改代码中的参数范围和评估指标。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值