大数据仓库开发规范示例

一、前提概要

大数据平台开发规范示例 发布一段时间后,有小伙伴表示我汤姆就是个Sql Boy,可否来个 数据仓库开发规范示例?安排!

调侃归调侃,如果想做一名合格的Sql Boy,还真不容易…

一臻在此对过去和做数仓Ing的小伙伴们361°C鞠躬Respect以表敬意。

在这里插入图片描述

二、数仓分层原则及定义

2.1 数仓分层原则

数仓分层的目的是为了给业务提供高效的数据支撑,和层次清晰、功能明确的数据存储,为企业各角色提供稳定、准确、多元化的高可用数据,同时为数据提供更方便的管理和运维。

2.2 数仓分层定义

数仓主要包含ODS,DWD,DWS,DIM,DM几个标准化的分层,同时结合企业实际的情况,如补录的数据,在数据ETL过程中的临时处理数据等,根据用途汇总为贴源层、数据共享层、数据服务层。

  1. ODS(Operational Data Store): 贴源层数据,仅导入业务业务数据,不做任何数据的清洗转换和修改,保持与源库一致。具体情况根据项目场景设定。除了业务系统的数据,还包括补录数据处理,源系统数据快照处理等。
  2. DWD(Data Warehouse Detail): 数仓明细层数据,保留业务实体的原子粒度,并且通过数据清洗和一定程度的数据转换,保障数据质量。数据来源于ODS层,保留所有历史数据。业务实体、数据行、字段级的完整性,在该层实现。
  3. DWS(Data WareHouse Service): 数仓服务层,数仓的服务层,与之前所提到的数据服务层不同,DWS层为公共汇总层,指标均可在DWS层落地。该层使用DWD层数据,维度数据,对业务上有关联的实体做连接,形成统一粒度的,跨业务流程的,多业务实体的,轻度汇总数据。
  4. DIM(Dimension): 数据维度层,存储维度(含主数据)信息表或配置表,来源数据质量高的ODS数据(如主数据)和DWD层数据。
  5. DM(Data Market): 数据集市层,提供数据服务的分层,有明确的分析主题,基于具体的业务需求场景或者分析场景,数据仅包含维度和指标,没有复杂的逻辑处理。数据来源于DWD,DWS,DIM层,大多数为指标宽表,有较多的维度和指标。
  6. TMP:临时数据处理层,用于各层的数据加工处理过程中的临时数据处理,临时需求场景加工数据的处理。

三、数仓公共开发规范

3.1 分层调用规范

数据分层的标准流向(不含维度)为ODS->DWD->DWS->DM标准流向中,禁止出现反向依赖

维度流向为DWD->DIM或者ODS->DIM,使用ODS直接到DIM的情况,必须保障足够高的数据质量。

DIM、DWS、DM可以往自身分层写入数据,如不同粒度的数据写入。

在这里插入图片描述

数据流向如下图所示:

在这里插入图片描述

3.2 数据类型规范

在保障数据不失真,且不会增加数据存储复杂度,不增加数据处理计算量的情况下,尽量减少数据类型的数量,兼容原始数据原有的类型。

数据类型依据具体的数据存储环境而定,比如使用Apache Doris的情况如下:

  • ID类:BIGINT
  • 标签枚举:INT
  • 字符串:STRING
  • 状态描述:STRING
  • 日期:DATE yyyy-MM-dd
  • 日期时间:DATETIME yyyy-MM-dd HH:mm:ss.SSSSSS
  • 业务数额类默认使用 DECIMAL,精度根据实际情况做调整

3.3 数据冗余规范

宽表的冗余字段要确保以下原则:

  • 冗余字段要使用高频,下游3个或以上使用。
  • 冗余字段引入不应造成本身数据产生过多的延后。
  • 冗余字段和已有字段的重复率不应过大,原则上不应超过 60%,如需要可以选择join或原表拓展。

3.4 NULL字段处理规范

  • 数据类型为int的默认为-999
  • 数据类型为bigint的默认为-999999
  • 数据类型为decimal的默认为0

3.5 公共字段规范

所有数仓分层中的字段,均为小写,且不可出现中文。

物理表中的公共字段信息如下:

在这里插入图片描述

3.6 数据表处理规范

  • 增量表:
    依据具体的时间和其他标签粒度,做对应的分区或多层分区;处理过程中,源表必须包含可增量的属性字段,确保数据的完整性。
  • 全量表:
    每次写入的数据都是最新的;
    每次写入的数据都是完整的全量数据。
  • 拉链表:
    记录一个事物从开始,一直到当前状态的所有变化的信息;
    拉链表每次上报的都是历史记录的最终状态,是记录在当前时刻的历史总量;
    当前记录存的是当前时间之前的所有历史记录的最后变化量(总量)。

3.7 事实表划分规范

在维度建模中,按粒度划分,数据表分为维度表和事实表,事实表包含三种:事务型事实表,周期快照型事实表,累计快照型事实表。

  1. 事务型事实表:
    事务事实表记录事务层面的事实,保存最为原子的数据,其数据在事务发生后发生,粒度为每一行数据。
  2. 周期快照型事实表:
    有规律的,可预见的时间间隔的业务累计数据,比如按天、周、月等做业务的统计度量。
  3. 累计快照型事实表:
    在整个业务的生命周期中,表述业务多个阶段的开始和结束过程,通常有多个时间字段,并且时间不可预测,随着阶段周期的变化,记录也会随着变化而发生修改。

四、数仓各层开发规范

4.1 分层实例

数仓分册实例如下表所示:

在这里插入图片描述

4.2 表的属性词条相关规范

表的属性中会存在以下的属性词条,需要通过业务元数据去描述,不直接通过表名,避免表名太长的问题:

  • 是否宽表
  • 时效: 实时和非实时
  • 更新方式:增量,全量

以下属性需要通过表名去区分:

  • 统计周期:y表示年,m表示月,w表示周,d表示天,h表示小时,mi表示分钟
  • 维度类型:缓慢变化维(scd),非缓慢变化维。

4.3 ODS层设计规范

  1. 命名规则
  • ODS层表命名规则:ods_[类别]_[表内容]。
  • 类别分为业务表(business简称bsn),快照表(snapshot简称snap)和补录表(amended简称amd)。
  • 示例:ods_doris_load.ods_snap_stream_load,其中ods_doris_load是库名,doris是系统,load 是导入库,snap表示是快照表,stream_load是stream_load导入方式表名。
  1. 处理内容
  • 源系统数据的采集和同步,保持和源系统数据的一致性。
    处理过程分为实时和离线,实时接入的数据需要有对应的数据写入状态(新增、修改、删除),实时数据写入时间。
  • 快照表处理:
    对于源表数据量少于100万的,可按天/周/月不同的周期间隔,做全量快照表
    对于源表数据量大于1000万的,需要根据业务主键做拉链表
    对于源表数据量大于100万小于1000万的,根据具体业务的需求,做全量快照
  • 补录表处理:主要针对业务系统中没有的数据,需要导入或者补录平台录入的,用以修复数据或者完善指标规则的,如财务手工账,订单时效的基线等。补录数据需要有以下约束:固定的模板,数据适用范围和有效期,补录数据的更新机制,补录数据更新后的数据处理机制,补录表需在表中增加字段(表述补录类别和用途)。

4.4 DWD层设计规范

  1. 命名规则
  • DWD层表命名规则:dwd_[实体名]
  • 示例:dwd_doris.dwd_doris_load,其中dwd_doris是库名,doris表示AP域,doris_load表示导入凭证
  1. 处理内容
  • 数据的完整性,包括实体的完整性(分段的业务表),数据行的完整性(不同阶段的业务周期的汇集),字段的完整性(关键业务字段)。
  • 数据清洗,对于脏数据按规则进行清洗,保障原子粒度的数据质量。
  • 维度关联映射。

4.5 DWS层设计规范

  1. 命名规则
  • DWS层表命名规则:dws_[主题内容]_[统计周期]
  • 示例:dws_doris.dws_load_d,其中dws_doris是库名,load是导入全流程相关的主题内容,最后的d表示按天统计
  1. 处理内容
  • 不同实体间的关联和逻辑转换。
  • 维度退化。
  • 不同粒度的指标度量表,以及轻度汇总。
  • 不同类型的事实表。
  • 粒度较细的宽表。

4.6 DIM设计规范

  1. 命名规则
  • DIM表命名规则:dim_[主题域][维度类型][维度],维度统一库名,对于有主题域来源,通过表名识别主题域。
  • 示例:dim.dim_doris_scd_load,其中dim表示维度的库名,doris 表示AP域,scd 表示缓慢变化维,load表示导入维度
  1. 处理内容
  • 维度的一致性和准确性。
  • 数据行中,为空维度的兼容。
  • 缓慢变化维。

4.7 DM层设计规范

  1. 命名规则
  • DM层表命名规则:dm_[项目/分析域][主题内容][统计周期]。
  • 示例:dm_doris.dm_doris_load_d,其中dm_doris是库名,doris是表示AP项目,load 表示导入相关的分析,最后的d表示按天统计
  1. 处理内容
  • 基于不同分析主题的宽表,基于应用场景的维度和指标的提取。
  • 指标粒度的一致性。
  • 数据的高度汇总。
  • 保障维度完整性(所有的维度,包含为空的兼容都可在维表中关联)。

4.8 TMP层设计规范

  1. 命名规则
  • TMP层表命名规则:
    ETL作业:tmp_[分层库名_分层表名][流水]
    临时使用的表:tmp
    [用户][表内容][有效期]
  1. 处理内容
  • ETL作业中的临时表,可在ETL中临时创建和删除,必须满足模型管理员清理TMP层数据策略的要求。
  • 临时使用的表,必须有确定的生命周期,不确定有效期的,可设置较长的有效期,模型管理- 员根据有效期和用户,不定时沟通确认该临时表的清理计划。

五、总结

在这里插入图片描述

规范示例仅作为参考,实际开发中需要根据业务要求和场景进行调整适配。

<think> 首先,用户的问题是关于“hive大数据仓库建模的相关信息”,具体是“hive大数据仓库建模方法和实践”。所以,我需要聚焦在Hive大数据仓库的建模方法和实践上。 回顾系统级指令: - 使用行内数学表达式用$...$,例如变量。 - 独立公式用$$...$$。 - LaTeX语法正确。 - 使用中文回答。 - 生成相关问题。 - 在回答中引用的段落末尾添加引用标识,如[^1]。 用户提供的引用有三个: - 引用[1]:谈论大数据仓库建设,涉及数据建模、ETL流程,使用Hive和Spark SQL。 - 引用[2]:重点在Hive数据仓库建设的最佳实践,包括架构设计、数据建模、ETL等。 - 引用[3]:讨论数据建模方法,比较星型模型和雪花模型,有案例和实战示例。 用户说“上述引用仅供参考,并不是用户真正的需求”,并强调要参考用户上一次的问题和回答。但在这个对话中,这是第一个用户消息,所以我应该基于当前查询。用户上一次的问题可能是上下文缺失,但从消息看,这是独立的查询。 用户查询是:“我想获取hive大数据仓库建模的相关信息 请问hive大数据仓库建模方法和实践” 所以,主题是Hive大数据仓库的建模方法和实践。 结构我的回答: - 回答应该结构清晰,逐步解决问题。 - 确保真实可靠,基于提供的引用。 - 最后生成相关问题。 关键点从引用中提取: - 引用[1]:大数据仓库建设涉及数据建模和ETL。 - 引用[2]:Hive数据仓库建设需要分区分桶、维度建模等。 - 引用[3]:具体建模方法如星型模型和雪花模型,以及实战案例(电商数据中台建模)。 建模方法: - **维度建模**:常用的是星型模型和雪花模型。 - 星型模型:事实表直接连接到维度表,减少JOIN次数。 - 雪花模型:维度表可以规范化,但JOIN次数可能增加,效率较低(如引用[3]所述)。 - 其他方法可能有规范化模型,但维度建模在大数据仓库中常见。 实践方面: - 使用工具:Hive、Spark SQL(引用[1])。 - 技术栈:Hive for warehousing, HBase for querying, Spark for processing, Airflow for scheduling, Atlas for metadata management(引用[3])。 - 优化:分区分桶(partitioning and bucketing)在Hive中用于性能优化(引用[2])。 - 开发步骤:环境搭建、维度表创建、事实表创建等(引用[3])。 回答结构: 1. **引入**:简要介绍Hive大数据仓库建模的重要性和基本概念。 2. **建模方法**:详细解释维度建模,比较星型模型和雪花模型。 3. **实践步骤**:描述如何在Hive中实现建模,包括环境搭建、代码示例。 4. **最佳实践**:讨论优化技术如分区分桶。 5. **结论**:总结关键点。 6. **相关问题**:生成相关的问题。 在回答中,引用相关段落: - 例如,提到星型模型和雪花模型时,引用[^3]。 - 提到最佳实践时,引用[^2]。 - 提到整个建设流程时,引用[^1]。 确保LaTeX:如果有数学表达式,如计算JOIN次数(引用[3]有数字计算),可以使用$...$。 例如:在引用[3]中,有计算:雪花模型Join次数:D1与D2先Join(10000 × 1000 = 1000000次),再与事实表Join(10000000 × 1000000次)。所以,我可以写为:雪花模型的JOIN操作涉及$10000 \times 1000 = 1000000$次要操作,然后是$10000000 \times 1000000$次操作。 但由于是行内,用$...$。 最终输出: - 回答部分。 - 相关问题部分,以“§§相关问题§§”开始。 相关问题生成:基于主题,如: 1. Hive数据仓库中如何优化查询性能? 2. 维度建模与规范化建模的区别? 3. 如何在实际项目中实现ETL流程? 使用中文回答。 </think> ### Hive 大数据仓库建模方法与实践 Hive 大数据仓库建模是构建高效、可伸缩数据平台的核心环节,涉及数据建模方法(如维度建模)和工程实践(如工具链集成)。本文将基于最佳实践和实战案例,逐步解释建模的核心方法、实施步骤和优化策略。所有内容参考提供的引用文献和相关领域知识,确保信息真实可靠。 #### 1. **建模方法:维度建模的核心** Hive 数据仓库建模通常采用**维度建模**方法,该方法将数据组织为事实表(存储业务度量)和维度表(存储上下文属性),以支持高效查询和分析。维度建模的常见模型包括星型模型和雪花模型,各有优缺点: - **星型模型**:事实表直接连接到多个维度表,减少 JOIN 操作次数。例如,在电商场景中,事实表存储销售交易记录(如订单金额),维度表连接产品、时间和客户等信息。其优势是查询性能高,因为 JOIN 次数仅为维度表数量(如引用[3]所述)。 - **雪花模型**:维度表规范化,形成层级结构(如产品类别维度表关联子类别表)。但 JOIN 操作更复杂,可能导致性能下降。例如,引用[3]中的案例:事实表1000万条数据,维度表 D1(1万条)和 D2(1千条)。在雪花模型中,JOIN 次数计算为: 雪花模型:D1 与 D2 先 JOIN($10000 \times 1000 = 1000000$ 次要操作),然后结果再与事实表 JOIN($10000000 \times 1000000$ 次要操作),显著高于星型模型的直接 JOIN(仅 3 次)。因此,在大数据场景中,星型模型更推荐用于性能优化[^3]。 维度建模的其他实践包括: - **缓慢变化维度(SCD)处理**:当维度属性变化时(如客户地址更新),使用类型1(覆盖)或类型2(添加新版本)策略。 - **聚合表设计**:预计算常用聚合(如总销售额),以减少查询延迟。 维度建模的优势在于业务友好性,能快速响应分析需求,是 Hive 仓库建设的标准方法[^2]。 #### 2. **建模实践:实施步骤与工具链集成** Hive 数据仓库建模的实施是一个系统工程,分为环境搭建、数据建模和优化三个阶段: - **环境搭建**: 首先,选择合适的技术栈,确保可扩展性。引用[3]的实战案例显示: - 数据存储:Hive 作为主数据仓库,HBase 用于高并发查询。 - 计算框架:Spark 用于数据清洗和建模(如 Spark SQL)。 - 调度工具:Airflow 管理定时 ETL 任务。 - 元数据管理:Apache Atlas 跟踪数据血缘关系。 环境配置示例(基于 Hive 和 Spark): ```shell # Spark 环境变量配置 export SPARK_HOME=/opt/spark export PATH=$SPARK_HOME/bin:$PATH # Hive 连接配置(hive-site.xml) <property> <name>hive.metastore.uris</name> <value>thrift://hadoop-master:9083</value> </property> ``` 这确保 Hive 和 Spark 无缝集成,支持高效的建模工作流[^3]。 - **数据建模实施**: 核心是通过 HiveQL(Hive 的 SQL-like 语言)创建表结构: - **维度表创建**:定义静态属性,如产品维度表。 ```sql -- 示例:创建产品维度表(HiveQL) CREATE TABLE dim_product ( product_id INT COMMENT '产品ID', product_name STRING COMMENT '产品名称', category STRING COMMENT '类别' ) STORED AS ORC; ``` - **事实表创建**:链接维度表,存储动态度量。 ```sql -- 示例:创建销售事实表,关联维度表 CREATE TABLE fact_sales ( sale_id BIGINT COMMENT '销售ID', product_id INT COMMENT '产品ID', sale_date DATE COMMENT '销售日期', amount DECIMAL(10,2) COMMENT '销售金额' ) STORED AS ORC; ``` 此阶段结合 ETL(Extract, Transform, Load)流程: 1. **Extract**:从源系统(如 MySQL 或 Kafka)提取数据。 2. **Transform**:在 Spark 中清洗和转换数据(如处理缺失值)。 3. **Load**:加载到 Hive 表,确保数据一致性。 ETL 设计需高效处理海量数据,引用[1]强调其在大数据仓库建设的关键作用[^1]。 - **优化策略**: 为提高性能,引用[2]建议的最佳实践包括: - **分区分桶(Partitioning and Bucketing)**:将大表按时间或类别分区,减少扫描范围;分桶则基于哈希值优化 JOIN 性能(如按 product_id 分桶)。 - **元数据管理**:使用 Apache Atlas 监控表结构和数据血缘,避免建模错误。 - **性能监控**:定期分析查询计划,调整模型以适应增长的数据量[^2]。 #### 3. **最佳实践总结** Hive 大数据仓库建模的成功依赖于: - **方法选择**:优先使用星型模型以简化查询;雪花模型仅当维度高度规范化且数据量较小时适用。 - **工具集成**:结合 Spark、Airflow 和 Atlas,实现端到端的数据治理。 - **持续优化**:通过分区分桶和 ETL 自动化提升效率(引用[2]指出,这能显著减少存储和处理开销)[^2]。 建模不仅是技术任务,还需对齐业务需求(如电商分析),确保仓库支持决策系统。引用[1]说明,高效建模赋能数据分析能力,推动企业增长[^1]。
评论 3
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据AI智能圈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值