SparkSQL大增量表取最新组织关系

摘要: SparkSQL大增量表取最新组织关系

关键词: 大数据、SparkSQL优化、性能优化、HINTS

一、背景

  • 背景:一张巨大的增量日志表需要获取最新的用户组织关系;
  • 技术应用场景:日志统计,历史用户关系统计;
  • 整体思路:把每次全量转换为增量,把大表和大表关联,转换为大表和小表关联,利用SparkSQL特性优化查询速度。

二、解决过程

2.1、优化前的准备工作

1)、准备表

a.增量日志表 时间分区为2016-01-01至今,每日增量分区,分区字段pdate,总分区数据量约200亿条。

create table t_log
(   id String COMMENT  '唯一id',
    user_id String COMMENT  '用户id',
    active_time String COMMENT  '活动时间,精确到具体时分秒',
) PARTITIONED BY (pdate string)
STORED AS PARQUET

b.用户拉链表 单分区数据量约2亿条。

create table t_user_h
(   school_id String COMMENT  '学校id',
    user_id String COMMENT  '用户id',
    start_date String COMMENT  '开始日期',
    end_date String COMMENT  '结束日期'
) PARTITIONED BY (pdate string)
STORED AS PARQUET

2)、优化预期

  • 优化前 两张表直接关联,关联代码如下
select 
t1.id,
t1.user_id,
t1.active_time,
t2.school_id
from t_log t1 
join t_user_h t2 
on t1.active_time >= t2.start_date
and t1.active_time <= t2.end_date
and t1.user_id = t2.user_id
where t2.pdate = current_date

关联时间: 5小时/每日 关联扫描用户数: 200万/每日

  • 优化后 挑出不变的用户,只对变化做关联 关联时间: 0.5小时/每日 关联扫描用户数: 2万/每日

2.2、进入优化阶段

1)、优化方案说明

2)、SparkSQL关联基础知识

1、关联方式基础知识
a、 broadcast join(小表对大表)

将小表的数据分发到每个节点上,供大表使用。executor

存储小表的全部数据,一定程度上牺牲了空间,换取shuffle操作大量的耗时,这在SparkSQL中称作Broadcast Join Broadcast Join的条件有以下几个:

  • 被广播的表需要小于 spark.sql.autoBroadcastJoinThreshold 所配置的值,默认是10M (或者加了broadcast join的hint)
  • 基表不能被广播,比如 left outer join 时,只能广播右表
b、 Shuffle Hash Join

分为两步:

  • 对两张表分别按照join keys进行重分区,即shuffle,目的是为了让有相同join keys值的记录分到对应的分区中
  • 对对应分区中的数据进行join,此处先将小表分区构造为一张hash表,然后根据大表分区中记录的join keys值拿出来进行匹配
c、 Sort Merge Join(大表对大表)

将两张表按照join keys进行了重新shuffle,保证join keys值相同的记录会被分在相应的分区。分区后对每个分区内的数据进行排序,排序后再对相应的分区内的记录进行连接,

因为两个序列都是有序的,从头遍历,碰到key相同的就输出;如果不同,左边小就继续取左边,反之取右边。

2、explain的基础知识
explain + select 语句

执行即可查看 这个段查询的 执行计划,即 查询会按照什么样的方式执行

3、hints的基础知识

可以通过在SparkSQL中增加hints 格式:

/*+ HINT_NAME */

举例: 强制SparkSQL 使用BROADCASTJOIN方式, 为小表的别名

/*+ BROADCASTJOIN(B) */

3)、优化步骤

第一步:对新增的一天的数据直接关联历史拉链表

create temporary view temp_result_part1 as  
select 
t1.id,
t1.user_id,
t1.active_time,
t2.school_id
from t_log t1 
join t_user_h t2 
on t1.active_time >= t2.start_date
and t1.active_time <= t2.end_date
and t1.user_id = t2.user_id
and t1.pdate = t2.pdate 
where t2.pdate = current_date

第二步:找出变化的拉链用户, 拉链的变化包含新增、更新、删除

create temporary view temp_user_h_change as
create 
select 
user_id,
start_date,
end_date
from t_user_h
where pdate = current_date 

minus 

select 
user_id,
start_date,
end_date
from t_user_h
where pdate = date_sub(current_date,1)

第三步:根据变化的用户去减少t_log的数据量,同时使用spark中的broadcastjoin来加快关联,一天变化用户约2万个

create temporary view temp_log as
select 
/*+ BROADCASTJOIN(t1,t2) */
t1.id,
t1.user_id,
t1.active_time
from t_log t1 
join (select distinct user_id from temp_user_h_change) t2
on t1.user_id = t2.user_id
where t1.pdate <= date_sub(current_date,1)

第四步:把变化的这部分日志记录关联最新的组织关系

create temporary view temp_result_part2 as  
select 
t1.id,
t1.user_id,
t1.active_time,
t2.school_id
from temp_log t1 
join t_user_h t2 
on t1.active_time >= t2.start_date
and t1.active_time <= t2.end_date
and t1.user_id = t2.user_id
where t2.pdate = current_date

第五步:针对那些没有变化组织关系的用户,直接使用昨天的数据t_result, 至于昨天的数据怎么生成, 可以采用全量关联的方式,生成一个初始化数据,这里个过程很耗时,但是只要一次就可以了。

insert overwrite table t_result
select 
t1.id,
t1.user_id,
t1.active_time,
t2.school_id
from t_log t1 
join t_user_h t2 
on t1.active_time >= t2.start_date
and t1.active_time <= t2.end_date
and t1.user_id = t2.user_id
where t2.pdate = date_sub(current_date,1)
and t1.pdate <= date_sub(current_date,1)

把昨天的数据放入临时表

create temporary view temp_result_yesteday as 
select 
id,
user_id,
active_time,
school_id 
from t_result

去除昨天的数据中已经是组织关系变化的用户,只保留没有变化的用户

create temporary view temp_result_part3 as  
select
id,
user_id,
active_time,
school_id 
from temp_result_yesteday
left join (select distinct user_id from temp_user_h_change) t2
on t1.user_id = t2.user_id
where t2.user_id is null

第六步就是把这三部分合在一起,就是我们想要的结果

insert overwrite table t_result
select
id,
user_id,
active_time,
school_id
from temp_result_part1
union all 
select
id,
user_id,
active_time,
school_id
from temp_result_part2
union all
select
id,
user_id,
active_time,
school_id
from temp_result_part3

三、总结

由于变化的用户只有2万左右的数据比原来所有的用户200万下降了100倍,所以数据关联消耗资源大大减少。 同时计算时间也从5小时下降到1小时, 扫描大的日志数据表的计算时间还是没法避免。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鹏说大数据

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值