Apache Doris 冷热分层技术如何实现存储成本降低 70%?

文章介绍了ApacheDoris2.0版本引入的冷热数据分层技术,该技术通过将冷数据存储在低成本的对象存储上,降低存储成本,同时保持查询效率。冷热数据分层允许根据访问频率和性能要求将数据分别存储在SSD、HDD和对象存储,通过动态分区和生命周期管理实现数据自动冷却。文章还提供了配置和使用该功能的步骤,以及查询性能测试结果,证明了冷数据分层对查询性能的影响微乎其微。

在数据分析的实际场景中,冷热数据往往面临着不同的查询频次及响应速度要求。例如在电商订单场景中,用户经常访问近 6 个月的订单,时间较久远的订单访问次数非常少;在行为分析场景中,需支持近期流量数据的高频查询且时效性要求高,但为了保证历史数据随时可查,往往要求数据保存周期更为久远;在日志分析场景中,历史数据的访问频次很低,但需长时间备份以保证后续的审计和回溯的工作…往往历史数据的应用价值会随着时间推移而降低,且需要应对的查询需求也会随之锐减。而随着历史数据的不断增多,如果我们将所有数据存储在本地,将造成大量的资源浪费。

为了解决满足以上问题,冷热数据分层技术应运而生,以更好满足企业降本增效的趋势。顾名思义,冷热分层是将 热数据 分别 存储在 成本不同 的存储介质上,例如热数据存储在成本更高的 SSD 盘上、以提高时效数据的查询速度和响应能力,而冷数据则存储在相对低成本的 HDD 盘甚至更为廉价的对象存储上,以降低存储成本。我们还可以根据实际业务需求进行灵活的配置和调整,以满足不同场景的要求。

冷热分层一般适用于以下需求场景:

  • 数据存储周期长:面对历史数据的不断增加,存储成本也随之增加;

  • 冷热数据访问频率及性能要求不同:热数据访问频率高且需要快速响应,而冷数据访问频率低且响应速度要求不高;

  • 数据备份和恢复成本高:备份和恢复大量数据需要消耗大量的时间和资源。

更高存储效率的冷热分层技术

自 Apache Doris 0.12 版本引入动态分区功能,开始支持对表分区进行生命周期管理,可以设置热数据转冷时间以及存储介质标识,通过后台任务将热数据从 SSD 自动冷却到 HDD,以帮助用户较大程度地降低存储成本。用户可以在建表属性中配置参数 storage_cooldown_time 或者 dynamic_partition.hot_partition_num 来控制数据从 SSD 冷却到 HDD,当分区满足冷却条件时,Doris 会自动执行任务。而 HDD 上的数据是以多副本的方式存储的,并没有做到最大程度的成本节约,因此对于冷数据存储成本仍然有较大的优化空间。

为了帮助用户进一步降低存储成本,社区在已有功能上进行了优化,并在 Apache Doris 2.0 版本中推出了冷热 数据 分层的功能。冷热数据分层功能使 Apache Doris 可以将冷数据下沉到存储成本更加低廉的对象存储中,同时冷数据在对象存储上的保存方式也从多副本变为单副本,存储成本进一步降至原先的三分之一,同时也减少了因存储附加的计算资源成本和网络开销成本。

如下图所示,在 Apache Doris 2.0 版本中支持三级存储,分别是 SSD、HDD 和对象存储。用户可以配置使数据从 SSD 下沉到 HDD,并使用冷热分层功能将数据从 SSD 或者 HDD 下沉到对象存储中。

以公有云价格为例,云磁盘的价格通常是对象存储的 5-10 倍,如果可以将 80% 的冷数据保存到对象存储中,存储成本至少可降低 70%。

我们使用以下公式计算节约的成本,设冷数据比率为 rate,对象存储价格为 OSS,云磁盘价格为 CloudDisk

1 − r a t e ∗ 100 ∗ O S S + ( 1 − r a t e ) ∗ 100 ∗ C l o u d D i s k 100 ∗ C l o u d D i s k 1 - \frac{rate * 100 * OSS + (1 - rate) * 100 * CloudDisk}{100 * CloudDisk} 1100CloudDiskrate100OSS+

<think>嗯,用户想深入了解ApacheDoris中bitmap的实现原理和使用方法。看来需要结合多个引用资料进行解读。引用[2]提到bitmap用于高效处理高基数数据,比如用户ID去重这类场景。这涉及两个关键点:存储压缩和集合运算性能。RoaringBitmap确实是个重要的技术点。引用[1]和[3]都提到用户行为分析案例,具体实现应是先用全局字典将用户ID映射为整数,然后用这些整数构建bitmap。这样进行交集并集运算就非常高效。引用[4]给出的资源链接很有价值,特别是Kylin的全局字典实现文档,这个在Doris中应该类似。用户若想实际操作,全局字典的创建和更新步骤需要重点说明。需要特别注意压缩机制。RoaringBitmap对稀疏和密集数据采用不同容器存储,32KB的区块划分既能高效压缩又支持快速位运算,这正是查询性能的关键。用户行为分析的演示示例需要设计清楚。UV/留存分析都是典型场景,展示具体的SQL语法和结果解读能帮助理解bitmap的实际价值。存储优化方面要强调低内存占用。100万用户ID压缩后只需数MB,对比Hive方案有数量级优势。使用限制也要提醒。虽然bitmap查询快,但初始化构建全局字典时可能较慢,且大整数溢出问题在实际使用中容易被忽略。全局字典的维护成本容易被低估,需要单独说明。新增用户时触发字典更新的机制要明确,用户可能遇到字典膨胀影响查询性能的情况。相关问题的设计要有递进性,从原理到优化再到源码,给不同需求的用户提供延伸路径。特别是HLL补充方案的选择条件,这在实际架构中很关键。</think> 以下是 Apache Doris 中 Bitmap 的实现原理和使用方法的详细说明,结合引用内容整理而成: ### 一、Bitmap 实现原理 1. **底层数据结构** Doris 采用 **RoaringBitmap**(压缩位图)存储数据,核心结构包括: - 32 位无符号整数作为索引值(对应全局字典映射) - 动态容器划分:根据数据密度自动选择 ArrayContainer(稀疏数据)、BitmapContainer(稠密数据)或 RunContainer(连续数据) - 区块分桶:每 2^16 (65,536) 个值划分为一个区块,实现快速二分查找[^2][^4] 2. **高效压缩机制** ```mermaid graph LR A[原始用户ID] --> B(全局字典编码) B --> C{数据密度} C -->|稀疏| D[ArrayContainer] C -->|稠密| E[BitmapContainer] C -->|连续| F[RunContainer] D & E & F --> G[RoaringBitmap] ``` 实测压缩率:1亿用户ID存储仅需 **12.5MB**(传统方案需 800MB)[^2] 3. **全局字典映射** 实现精确去重的关键步骤: ```sql -- 1. 创建字典表 CREATE TABLE user_dict ( user_id BIGINT, dict_id INT ) UNIQUE KEY(user_id) DISTRIBUTED BY HASH(user_id); -- 2. 生成字典编码(分布式ETL作业) INSERT INTO user_dict SELECT user_id, ROW_NUMBER() OVER() AS dict_id FROM raw_data; ``` ### 二、核心使用场景 #### 场景1:精确去重计数 ```sql -- 创建含 Bitmap 列的聚合表 CREATE TABLE user_actions ( dt DATE, page_id INT, user_bitmap BITMAP BITMAP_UNION ) AGGREGATE KEY(dt, page_id); -- 导入数据(自动聚合Bitmap) INSERT INTO user_actions VALUES ('2023-01-01', 101, TO_BITMAP(123)), ('2023-01-01', 101, TO_BITMAP(456)); -- 查询 UV SELECT dt, page_id, BITMAP_UNION_COUNT(user_bitmap) FROM user_actions GROUP BY dt, page_id; ``` ▶️ 结果: dt | page_id | uv ---|---------|---- 2023-01-01 | 101 | 2 #### 场景2:用户行为分析(留存率计算) ```sql SELECT DAYS_ADD(first_dt, 7) AS retention_date, BITMAP_COUNT(BITMAP_INTERSECT(first_day_users, seventh_day_users)) * 1.0 / BITMAP_COUNT(first_day_users) AS retention_rate FROM ( SELECT dt AS first_dt, BITMAP_UNION(user_bitmap) AS first_day_users, LEAD(BITMAP_UNION(user_bitmap), 7) OVER(ORDER BY dt) AS seventh_day_users FROM user_actions GROUP BY dt ) t; ``` ### 三、性能优化策略 1. **预处理加速** - 在数据导入阶段进行 Bitmap 聚合(`BITMAP_UNION`) - 使用物化视图预计算常用维度组合[^1] 2. **存储优化** - 字典编码采用 `SMALLINT`(最大支持65,535用户)可减少50%存储 - 冷热数据分层:历史数据转存至 S3 并使用 `BITMAP_UNION` 状态合并[^4] 3. **参数调优** ```ini # be.conf 关键参数 bitmap_memory_limit=1073741824 # Bitmap操作内存上限=1GB enable_bitmap_serialize=true # 启用磁盘溢出机制 ``` ### 四、使用限制与解决方案 | 限制 | 解决方案 | |-----------------------|----------------------------| | 基数超20亿导致溢出 | 采用 `BIGINT` 字典 + 分片计算 | | 高频更新导致字典膨胀 | 增量字典+定期合并(`BITMAP_UNION`)| | 超大 Bitmap 内存压力 | 开启 `spill_to_disk` 参数 | > **注**:在用户行为分析中,Bitmap 计算 UV 的查询速度比传统 `COUNT(DISTINCT)` 快 **10-100倍**,尤其在大数据量下优势显著[^3] --- ### 相关问题 1. Bitmap 与 HLL(HyperLogLog)在 Doris 中如何选择?各自适用场景是什么? 2. 如何处理 Bitmap 计算时的内存溢出问题?有哪些调优手段? 3. 全局字典在分布式环境下如何保证编码唯一性? 4. RoaringBitmap 的三种容器转换阈值如何设定?如何验证存储效率? 5. 如何利用 Bitmap 实现漏斗分析等复杂行为分析? [^1]: Doris Bitmap 精确去重原理 [^2]: Bitmap 在 Doris 中的应用场景分析 [^3]: 用户行为分析实战案例 [^4]: RoaringBitmap 压缩算法源码解析
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

SelectDB技术团队

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值