大数据仓库开发规范示例

一、前提概要

大数据平台开发规范示例 发布一段时间后,有小伙伴表示我汤姆就是个Sql Boy,可否来个 数据仓库开发规范示例?安排!

调侃归调侃,如果想做一名合格的Sql Boy,还真不容易…

一臻在此对过去和做数仓Ing的小伙伴们361°C鞠躬Respect以表敬意。

在这里插入图片描述

二、数仓分层原则及定义

2.1 数仓分层原则

数仓分层的目的是为了给业务提供高效的数据支撑,和层次清晰、功能明确的数据存储,为企业各角色提供稳定、准确、多元化的高可用数据,同时为数据提供更方便的管理和运维。

2.2 数仓分层定义

数仓主要包含ODS,DWD,DWS,DIM,DM几个标准化的分层,同时结合企业实际的情况,如补录的数据,在数据ETL过程中的临时处理数据等,根据用途汇总为贴源层、数据共享层、数据服务层。

  1. ODS(Operational Data Store): 贴源层数据,仅导入业务业务数据,不做任何数据的清洗转换和修改,保持与源库一致。具体情况根据项目场景设定。除了业务系统的数据,还包括补录数据处理,源系统数据快照处理等。
  2. DWD(Data Warehouse Detail): 数仓明细层数据,保留业务实体的原子粒度,并且通过数据清洗和一定程度的数据转换,保障数据质量。数据来源于ODS层,保留所有历史数据。业务实体、数据行、字段级的完整性,在该层实现。
  3. DWS(Data WareHouse Service): 数仓服务层,数仓的服务层,与之前所提到的数据服务层不同,DWS层为公共汇总层,指标均可在DWS层落地。该层使用DWD层数据,维度数据,对业务上有关联的实体做连接,形成统一粒度的,跨业务流程的,多业务实体的,轻度汇总数据。
  4. DIM(Dimension): 数据维度层,存储维度(含主数据)信息表或配置表,来源数据质量高的ODS数据(如主数据)和DWD层数据。
  5. DM(Data Market): 数据集市层,提供数据服务的分层,有明确的分析主题,基于具体的业务需求场景或者分析场景,数据仅包含维度和指标,没有复杂的逻辑处理。数据来源于DWD,DWS,DIM层,大多数为指标宽表,有较多的维度和指标。
  6. TMP:临时数据处理层,用于各层的数据加工处理过程中的临时数据处理,临时需求场景加工数据的处理。

三、数仓公共开发规范

3.1 分层调用规范

数据分层的标准流向(不含维度)为ODS->DWD->DWS->DM标准流向中,禁止出现反向依赖

维度流向为DWD->DIM或者ODS->DIM,使用ODS直接到DIM的情况,必须保障足够高的数据质量。

DIM、DWS、DM可以往自身分层写入数据,如不同粒度的数据写入。

在这里插入图片描述

数据流向如下图所示:

在这里插入图片描述

3.2 数据类型规范

在保障数据不失真,且不会增加数据存储复杂度,不增加数据处理计算量的情况下,尽量减少数据类型的数量,兼容原始数据原有的类型。

数据类型依据具体的数据存储环境而定,比如使用Apache Doris的情况如下:

  • ID类:BIGINT
  • 标签枚举:INT
  • 字符串:STRING
  • 状态描述:STRING
  • 日期:DATE yyyy-MM-dd
  • 日期时间:DATETIME yyyy-MM-dd HH:mm:ss.SSSSSS
  • 业务数额类默认使用 DECIMAL,精度根据实际情况做调整

3.3 数据冗余规范

宽表的冗余字段要确保以下原则:

  • 冗余字段要使用高频,下游3个或以上使用。
  • 冗余字段引入不应造成本身数据产生过多的延后。
  • 冗余字段和已有字段的重复率不应过大,原则上不应超过 60%,如需要可以选择join或原表拓展。

3.4 NULL字段处理规范

  • 数据类型为int的默认为-999
  • 数据类型为bigint的默认为-999999
  • 数据类型为decimal的默认为0

3.5 公共字段规范

所有数仓分层中的字段,均为小写,且不可出现中文。

物理表中的公共字段信息如下:

在这里插入图片描述

3.6 数据表处理规范

  • 增量表:
    依据具体的时间和其他标签粒度,做对应的分区或多层分区;处理过程中,源表必须包含可增量的属性字段,确保数据的完整性。
  • 全量表:
    每次写入的数据都是最新的;
    每次写入的数据都是完整的全量数据。
  • 拉链表:
    记录一个事物从开始,一直到当前状态的所有变化的信息;
    拉链表每次上报的都是历史记录的最终状态,是记录在当前时刻的历史总量;
    当前记录存的是当前时间之前的所有历史记录的最后变化量(总量)。

3.7 事实表划分规范

在维度建模中,按粒度划分,数据表分为维度表和事实表,事实表包含三种:事务型事实表,周期快照型事实表,累计快照型事实表。

  1. 事务型事实表:
    事务事实表记录事务层面的事实,保存最为原子的数据,其数据在事务发生后发生,粒度为每一行数据。
  2. 周期快照型事实表:
    有规律的,可预见的时间间隔的业务累计数据,比如按天、周、月等做业务的统计度量。
  3. 累计快照型事实表:
    在整个业务的生命周期中,表述业务多个阶段的开始和结束过程,通常有多个时间字段,并且时间不可预测,随着阶段周期的变化,记录也会随着变化而发生修改。

四、数仓各层开发规范

4.1 分层实例

数仓分册实例如下表所示:

在这里插入图片描述

4.2 表的属性词条相关规范

表的属性中会存在以下的属性词条,需要通过业务元数据去描述,不直接通过表名,避免表名太长的问题:

  • 是否宽表
  • 时效: 实时和非实时
  • 更新方式:增量,全量

以下属性需要通过表名去区分:

  • 统计周期:y表示年,m表示月,w表示周,d表示天,h表示小时,mi表示分钟
  • 维度类型:缓慢变化维(scd),非缓慢变化维。

4.3 ODS层设计规范

  1. 命名规则
  • ODS层表命名规则:ods_[类别]_[表内容]。
  • 类别分为业务表(business简称bsn),快照表(snapshot简称snap)和补录表(amended简称amd)。
  • 示例:ods_doris_load.ods_snap_stream_load,其中ods_doris_load是库名,doris是系统,load 是导入库,snap表示是快照表,stream_load是stream_load导入方式表名。
  1. 处理内容
  • 源系统数据的采集和同步,保持和源系统数据的一致性。
    处理过程分为实时和离线,实时接入的数据需要有对应的数据写入状态(新增、修改、删除),实时数据写入时间。
  • 快照表处理:
    对于源表数据量少于100万的,可按天/周/月不同的周期间隔,做全量快照表
    对于源表数据量大于1000万的,需要根据业务主键做拉链表
    对于源表数据量大于100万小于1000万的,根据具体业务的需求,做全量快照
  • 补录表处理:主要针对业务系统中没有的数据,需要导入或者补录平台录入的,用以修复数据或者完善指标规则的,如财务手工账,订单时效的基线等。补录数据需要有以下约束:固定的模板,数据适用范围和有效期,补录数据的更新机制,补录数据更新后的数据处理机制,补录表需在表中增加字段(表述补录类别和用途)。

4.4 DWD层设计规范

  1. 命名规则
  • DWD层表命名规则:dwd_[实体名]
  • 示例:dwd_doris.dwd_doris_load,其中dwd_doris是库名,doris表示AP域,doris_load表示导入凭证
  1. 处理内容
  • 数据的完整性,包括实体的完整性(分段的业务表),数据行的完整性(不同阶段的业务周期的汇集),字段的完整性(关键业务字段)。
  • 数据清洗,对于脏数据按规则进行清洗,保障原子粒度的数据质量。
  • 维度关联映射。

4.5 DWS层设计规范

  1. 命名规则
  • DWS层表命名规则:dws_[主题内容]_[统计周期]
  • 示例:dws_doris.dws_load_d,其中dws_doris是库名,load是导入全流程相关的主题内容,最后的d表示按天统计
  1. 处理内容
  • 不同实体间的关联和逻辑转换。
  • 维度退化。
  • 不同粒度的指标度量表,以及轻度汇总。
  • 不同类型的事实表。
  • 粒度较细的宽表。

4.6 DIM设计规范

  1. 命名规则
  • DIM表命名规则:dim_[主题域][维度类型][维度],维度统一库名,对于有主题域来源,通过表名识别主题域。
  • 示例:dim.dim_doris_scd_load,其中dim表示维度的库名,doris 表示AP域,scd 表示缓慢变化维,load表示导入维度
  1. 处理内容
  • 维度的一致性和准确性。
  • 数据行中,为空维度的兼容。
  • 缓慢变化维。

4.7 DM层设计规范

  1. 命名规则
  • DM层表命名规则:dm_[项目/分析域][主题内容][统计周期]。
  • 示例:dm_doris.dm_doris_load_d,其中dm_doris是库名,doris是表示AP项目,load 表示导入相关的分析,最后的d表示按天统计
  1. 处理内容
  • 基于不同分析主题的宽表,基于应用场景的维度和指标的提取。
  • 指标粒度的一致性。
  • 数据的高度汇总。
  • 保障维度完整性(所有的维度,包含为空的兼容都可在维表中关联)。

4.8 TMP层设计规范

  1. 命名规则
  • TMP层表命名规则:
    ETL作业:tmp_[分层库名_分层表名][流水]
    临时使用的表:tmp
    [用户][表内容][有效期]
  1. 处理内容
  • ETL作业中的临时表,可在ETL中临时创建和删除,必须满足模型管理员清理TMP层数据策略的要求。
  • 临时使用的表,必须有确定的生命周期,不确定有效期的,可设置较长的有效期,模型管理- 员根据有效期和用户,不定时沟通确认该临时表的清理计划。

五、总结

在这里插入图片描述

规范示例仅作为参考,实际开发中需要根据业务要求和场景进行调整适配。

<think>好的,用户需要中国电信大数据开发岗位的面试题和准备资料。首先,我需要整理常见的面试题目,特别是大数据相关的技术问题。根据提供的引用内容,Hadoop、HDFS、HBase这些是重点,比如NameNode、DataNode的作用,HBase的读写流程等。另外,用户提到的引用5详细描述了HDFS的架构,可以引用这部分内容来解释相关问题。 接下来要考虑大数据开发中的具体技术,比如MapReduce、Spark、数据存储和处理流程。用户提供的引用3提到了Hadoop面试题,包括SecondaryNameNode、DataNode、TaskTracker等组件,这些可以作为问题的一部分。同时,用户可能还需要了解数据处理工具和框架,比如Hive、Kafka、Flink等,这些都是大数据开发中的常用技术。 然后是关于项目经验和实际应用的问题。引用1提到大数据在医疗、金融等领域的应用,用户可能需要准备如何将技术应用到实际场景中的例子。此外,系统设计题也是常见的,比如设计实时数据管道或数据仓库,这需要结合Hadoop生态系统组件来回答。 在准备资料方面,官方文档、书籍如《Hadoop权威指南》是基础。刷题平台和模拟面试可以帮助巩固知识。用户还需要注意电信行业的特定应用,比如用户行为分析或日志处理,可能需要结合电信的业务场景来准备案例。 最后,面试技巧部分,沟通表达和问题分析能力同样重要。用户需要练习清晰表达技术概念,并在遇到难题时展示解决问题的思路。引用4提到的格局视野问题,如对人工智能行业的认识,可能也会在面试中出现,需准备相关趋势和应用场景的回答。 需要确保所有技术术语使用正确的LaTeX格式,比如HDFS组件用$NameNode$,数学公式用$...$。同时,根据用户提供的引用,正确标注来源,例如在HDFS架构部分引用[^5]。整理过程中还要检查是否有遗漏的技术点,比如数据优化方法或集群调优,确保覆盖全面。</think>### 中国电信大数据开发岗位面试题及准备资料 #### 一、技术类面试题整理 1. **Hadoop生态相关** - 解释HDFS的架构,$NameNode$和$DataNode$的作用是什么?[^5] - 简述MapReduce的工作流程,并说明Shuffle阶段的作用。 - HBase的读写流程是怎样的?为什么适用于电信领域的海量数据存储?[^3] - 如何优化Hive查询性能?(如分区、分桶、索引等) 2. **数据存储与处理** - 对比HDFS与对象存储(如S3)的优缺点。 - Kafka如何保证高吞吐量和数据一致性? - 描述Spark RDD的容错机制,并说明与MapReduce的区别。 3. **实时计算与工具** - Flink的窗口机制有哪些类型?如何应用于实时流量监控场景? - 使用HBase时,RowKey设计需要注意哪些原则? 4. **编程与算法** - 手写SQL:统计用户通话时长Top 10(表结构:`user_id, call_time, duration`)。 - 实现快速排序算法(需注意时间复杂度和稳定性)。 --- #### 二、系统设计类问题 1. **场景题** - 设计一个电信用户行为分析系统,需支持实时统计和离线报表。 **关键点**:数据采集(Flume/Kafka)、实时计算(Flink)、存储(HBase+Hive)、可视化(Superset)。 - 如何构建一个高可用的Hadoop集群?说明$NameNode$ HA的实现方式[^5]。 2. **数据治理** - 若发现Hive表数据倾斜,如何定位和解决? - 描述数据仓库分层设计(ODS、DWD、DWS、ADS)及其在电信业务中的应用。 --- #### 三、行业与应用类问题 1. **电信业务场景** - 如何利用大数据技术优化基站信号覆盖问题?(如基于用户位置数据分析) - 举例说明大数据在电信反欺诈中的应用[^1]。 2. **技术趋势** - 谈谈你对“数据湖”和“数据仓库”融合的看法。 - 电信行业的数据隐私保护有哪些特殊要求?(参考GDPR和国内法规) --- #### 四、准备资料推荐 1. **官方文档与书籍** - 《Hadoop权威指南》(重点:HDFS、MapReduce、YARN) - 《HBase原理与实践》(读写流程、RowKey设计)[^3] - Apache Flink官方文档(实时计算核心概念) 2. **刷题与实战** - LeetCode数据库/算法题(中等难度,如窗口函数、JOIN优化) - 牛客网/HackerRank大数据专项题库 - 模拟项目:从GitHub克隆电信日志分析项目(如基于Spark的CDR分析) 3. **面试技巧** - 重点准备项目中的技术选型理由和问题解决案例。 - 针对电信行业,熟悉用户画像、流量监控等业务术语。 --- #### 五、注意事项 1. **技术深度**:确保对Hadoop生态组件(如YARN、ZooKeeper)的原理有清晰理解。 2. **业务结合**:回答时需关联电信场景,例如:“在用户漫游分析中,HBase的稀疏存储特性可有效节省成本”。 3. **代码规范**:手写代码时注意边界条件和注释,如快速排序需处理重复元素[^示例代码]。 ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据AI智能圈

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值