Hive Lateral View + explode 详解

本文详细介绍了Hive中的UDTF函数explode及其与lateralview的配合使用。explode函数用于拆分array和map类型数据,一进多出。当需要结合其他字段时,lateralview发挥作用,将UDTF生成的结果与原始表数据关联。通过实例演示了explode处理手机号码、学生成绩和酒店入住数据的问题,展示了如何利用explode和lateralview进行数据处理和分析。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

hive中的函数分为3类,UDF函数、UDAF函数、UDTF函数

  • UDF:一进一出
  • UDAF:聚集函数,多进一出,类似于:count/max/min
  • UDTF:一进多出,如explore()、posexplode(),UDTF函数的时候只允许一个字段

百度explode()时,经常会出现lateral view + explode相关的文章,很少单独写explode()。分别了解ecplode() 与lateral view的各自作用很重要,不然过程都不知道实现的,换个UDTF函数就不会使用了。

一、UDTF函数 explode() 讲解

UDTF函数作用都是输入一行数据,将该行数据拆分、并返回多行数据。不同UDTF函数只是拆分的原理不同、作用的数据格式不同而已。
这里详细讲解explode()用法,学会这一个其他的UDTF函数也会使用。

explode()将一行数据转换成列数据,可以用于arraymap类型的数据
1)explode()用于array的语法如下:

select explode(arraycol) as newcol from tablename;

#arraycol:arrary数据类型字段。
#tablename:表名

2)explode()用于map的语法如下:

select explode(mapcol) as (keyname,valuename) from tablename;
#tablename:表名
#mapcol:map类型的字段
#keyname:表示key转换成的列名称,用于代表key转换之后的列名。
#valuename:表示value转换成的列名称,用于代表value转换之后的列名称。

explode()用于map类型的数据时,由于map是kay-value结构的,所以它在转换的时候会转换成两列,一列是kay转换而成的,一列是value转换而成的。

3)以上为explode()函数的用法,此函数存在局限性:

  • 其一:不能关联原有的表中的其他字段。
  • 其二:不能与group by、cluster by、distribute by、sort by联用。
  • 其三:不能进行UDTF嵌套。
  • 其四:不允许选择其他表达式。

二、百度explode(),总会出现lateral view,它们各自的作用是什么?

第一部分对explode()函数做了简单的讲解,知道它作用的数据格式为array和map ,也知道了如何单独使用explode,可能脑袋还是有点懵,下面将结合案例一起学习。

UDTF函数(如:explode)只能只允许对拆分字段进行访问,即select时只能出现explode作用的字段,不能在选择表中其它的字段,否则会报错。
但是实际中需求中经常要拆某个字段,然后一起与别的字段一起取。这时就要使用lateral view。

lateral view为侧视图,其实就是用来和像类似explode这种UDTF函数联用的,lateral view会将UDTF生成的结果放到一个虚拟表中,然后这个虚拟表会和输入行进行join来达到连接UDTF外的select字段的目的。

不加lateral view的UDTF函数只能提取单个字段拆分,并不能塞回原来数据表中。加上lateral view就可以将拆分的单个字段数据与原始表数据关联上。在使用lateral view的时候需要指定视图别名生成新列别名。

1、udtf + lateral view 格式一

lateral view udtf(expression) tableAlias as columnAlias (,columnAlias)*
  • lateral view在UDTF前使用,表示连接UDTF所分裂的字段。
  • UDTF(expression):使用的UDTF函数,例如explode()。
  • tableAlias:表示UDTF函数转换的虚拟表的名称。
  • columnAlias:表示虚拟表的虚拟字段名称,如果分裂之后有一个列,则写一个即可;如果分裂之后有多个列,按照列的顺序在括号中声明所有虚拟列名,以逗号隔开。

2、udtf + lateral view 格式二

from basetable (lateral view)*
  • 在from子句中使用,一般和格式一搭配使用,这个格式只是说明了lateral view的使用位置。
  • from子句后面也可以跟多个lateral view语句,使用空格间隔就可以了。
eg:
SELECT myCol1, myCol2 FROM baseTable
LATERAL VIEW explode(col1) myTable1 AS myCol1
LATERAL VIEW explode(col2) myTable2 AS myCol2;

#col1为表baseTable字段中的map或者array类型
#col2为表baseTable字段中的map或者array类型

3、udtf + lateral view 格式三

from basetable (lateral view outer)*
from basetable (lateral view outer)*

它比格式二只是多了一个outer,这个outer的作用是在UDTF转换列的时候将其中的也给展示出来UDTF默认忽略输出空的,加上outer之后,会将空也输出,显示为NULL。这个功能是在Hive0.12是开始支持的。

eg:
select name,key,value from student_score lateral view outer explode(score) scntable as key,value;

-------------可借助下面逻辑理解-------------
 

# 查看表数据
hive> select * from udtf_test;
OK
jim5    ["james5","datacloase"]
jim4    ["james4","datacloase"]
jim3    ["james3","datacloase"]
jim2    ["james2","datacloase"]
Time taken: 0.084 seconds, Fetched: 4 row(s)

# 1)hive只允许对其拆分字段进行访问
hive> select explode(subordinates) from udtf_test;
OK
james5
datacloase
james4
datacloase
james3
datacloase
james2
datacloase
Time taken: 0.075 seconds, Fetched: 8 row(s)

#2)同时select 查询 explode作用字段及其它字段时,报错
hive> select explode(subordinates),name from udtf_test;
FAILED: SemanticException 1:29 Only a single expression in the SELECT clause is supported with UDTF's. Error encountered near token 'name'

#3)借助lateral view,同时查询explode作用字段及其它字段
hive> select name,subordinate from udtf_test
    > lateral view explode(subordinates)sub as subordinate;
OK
jim5    james5
jim5    datacloase
jim4    james4
jim4    datacloase
jim3    james3
jim3    datacloase
jim2    james2
jim2    datacloase
Time taken: 0.06 seconds, Fetched: 8 row(s)

三、explode、posexplode与lateral view 3套案例练习

拓展:
        explode与lateral view在关系型数据库中本身是不该出现的,因为他的出现本身就是在操作不满足第一范式的数据(每个属性都不可再分),本身已经违背了数据库的设计原理(不论是业务系统还是数据仓库系统)
        不过大数据技术普及后,很多类似pv,uv的数据,在业务系统中是存贮在非关系型数据库中,用json存储的概率比较大,直接导入hive基础的数仓系统中,就需要经过ETL过程解析这类数据,explode与lateral view在这种场景下大显身手。

1、找出相同数字的号码超过5位的手机号

1) 使用数据

jimmhe  18191512076
xiaosong    18392988059
jingxianghua    18118818818
donghualing 17191919999

2) 创建表

CREATE TABLE udtf_test1(
  name string, 
  phonenumber string)
ROW FORMAT DELIMITED 
  FIELDS TERMINATED BY '\t'

3) 加载数据

load data local inpath '/home/atguigu/data/test_20211215.txt' into table udtf_test1;

4) 查看加载表数据

hive> select * from udtf_test1;
OK
jimmhe  18191512076
xiaosong    18392988059
jingxianghua    18118818818
donghualing 17191919999
Time taken: 0.076 seconds, Fetched: 4 row(s)

5) 解题分析思路
split将电话号码,拆分成数组,在用explode炸裂:

select name,phonenumber
from(
select 
    name
    ,phonenumber
    ,phone_num
from udtf_test1
lateral view explode(split(phonenumber,'')) view_number as phone_num)aa
group by name,phonenumber,phone_num
having count(1)>=5

2、求一下每个学生成绩最好的学科及分数、最差的学科及分数、平均分数

有一张hive表,分别是学生姓名name(string),学生成绩score(map<string,string>),成绩列中key是学科名称,value是对应学科分数,请用一个hql求一下每个学生成绩最好的学科及分数、最差的学科及分数
1)表数据如下:

zhangsan|Chinese:80,Math:60,English:90
lisi|Chinese:90,Math:80,English:70
wangwu|Chinese:88,Math:90,English:96
maliu|Chinese:99,Math:65,English:60

2)创建表:

create table stu_score_test(name string,score map<String,string>)
row format delimited
fields terminated by '|'
collection items terminated by ','
map keys terminated by ':';

3)导入数据:

load data local inpath '/home/atguigu/data/test_20211216' into table stu_score_test;

4)查看导入后表数据

hive> select * from stu_score_test;
OK
zhangsan    {"Chinese":"80","Math":"60","English":"90"}
lisi    {"Chinese":"90","Math":"80","English":"70"}
wangwu  {"Chinese":"88","Math":"90","English":"96"}
maliu   {"Chinese":"99","Math":"65","English":"60"}
Time taken: 0.164 seconds, Fetched: 4 row(s)

5)解题思路
explode拆分map数据类型:

select 
    name,course,csorce
from(
    select 
        name
        ,course
        ,csorce 
        ,rank()over(partition by name order by csorce) last_rn
        ,rank()over(partition by name order by csorce desc) best_rn
    from stu_score_test
    lateral view  explode(score)  score_view as course,csorce
    )aa
where last_rn=1 or best_rn=1

3、计算酒店每天有多少个房间的入住---重点

1)需求如下

2)原始数据

7,2004,2021-03-05,2021-03-07
23,2010,2021-03-05,2021-03-06
7,1003,2021-03-07,2021-03-08
8,2014,2021-03-07,2021-03-08
14,3001,2021-03-07,2021-03-10
18,3002,2021-03-08,2021-03-10
23,3020,2021-03-08,2021-03-09
25,2006,2021-03-09,2021-03-12

3) 建表

create table temp_hotal_live(
user_id  varchar(50),
room_code  varchar(50),
Check_date varchar(50),
leave_date varchar(50)
)
ROW FORMAT DELIMITED 
  FIELDS TERMINATED BY ','
;

4) 分析思路
用posplode炸裂,补充完整时间:

SELECT 
start_dd,end_dd,count(1)
from
(SELECT
    user_id,  --用户id
    check_date,  --入店时间
    leave_date,  --离店时间
    date_add( check_date, pos ) start_dd,
    date_add( check_date, pos+1 ) end_dd
    FROM
    temp_hotal_live
    lateral VIEW 
    posexplode ( split ( REPEAT('A,',datediff( leave_date, check_date )) , ',' ) ) t AS pos, val
)
group BY start_dd,end_dd
  • datediff,计算住了多少天,两个时间之间的差值;
  • REPEAT(),把字符串复制多少次,把'A,'本题是把A,复制;
  • split,把字符串按分隔符分割为数组;
  • posexplode :炸裂,并排序; 可以行转列,并把索引取出。

<think>好的,我现在需要帮助用户解决关于HiveLATERAL VIEW用法的问题。用户之前已经得到了一些示例和解释,现在他们想查找更多的示例代码或教程,特别是关于LATERAL VIEW的用法、解析以及与explode和UDF的结合使用。我需要结合用户提供的引用内容和之前的回答来生成一个详细且结构清晰的解答。 首先,回顾用户提供的引用内容。引用1和2提到了使用多个LATERAL VIEW会导致笛卡尔积,这可能需要注意数据膨胀的问题。引用3指出explode必须与LATERAL VIEW一起使用,不能单独出现,这解释了为什么某些查询会失败。引用4展示了如何结合LATERAL VIEW进行分组统计,这可能是一个常见的使用场景。 接下来,我需要确保回答覆盖以下几个方面: 1. LATERAL VIEW的基本用法,特别是与explode的结合。 2. 多个LATERAL VIEW的使用及其潜在问题(如笛卡尔积)。 3. 处理复杂数据类型(数组、Map、结构体)。 4. 性能优化和常见错误处理。 5. 实际应用示例,可能结合用户提到的电商或用户行为分析场景。 用户的上一次回答已经包含了行列转换的示例,但这次需要更侧重于LATERAL VIEW的具体用法。因此,应该整理出不同的使用场景,比如基本数组展开、Map展开、多重展开,以及如何处理NULL值等。同时,需要强调注意事项,如数据膨胀、字段顺序错乱,并引用之前提到的解决方案。 还需要考虑用户可能的深层需求。他们可能在处理实际数据时遇到了问题,比如如何正确使用多个LATERAL VIEW而不导致错误,或者如何优化查询性能。因此,在回答中应包含实际示例和优化建议,如使用ORC格式、调整内存参数等。 另外,需要确保语法正确,特别是在SQL示例中正确使用LATERAL VIEWexplode,并解释每个步骤的作用。可能还需要提到Hive的新特性,如Hive 3.0中的横向聚合,以展示更高级的用法。 最后,生成相关问题,帮助用户进一步探索相关主题,比如性能优化、处理复杂数据结构或与其他Hive功能的结合使用。 现在需要组织这些内容,使其结构清晰,符合用户要求的格式,包括代码块、注意事项和引用标注。确保回答覆盖所有关键点,并引用用户提供的引用内容以增强可信度。</think>#### Hive LATERAL VIEW 使用详解与示例代码 --- ### 一、核心机制解析 LATERAL VIEWHive中处理复杂数据类型的核心操作符,通过与UDTF(User-Defined Table-Generating Function)配合使用,可将嵌套结构展开为多行记录。其执行流程为: 1. 将UDTF应用于原始表的每一行 2. 将输出结果与原始行进行笛卡尔积连接 3. 最终生成包含展开数据的虚拟表[^3] 数学表达式说明: 设原始数据行数为$n$,UDTF生成$m$个结果,则最终数据量为$n \times m$ --- ### 二、基础用法示例 #### 1. 数组展开(基础场景) ```sql -- 原始表结构(用户兴趣标签) CREATE TABLE user_interests ( user_id STRING, tags ARRAY<STRING> ); -- 使用explode展开数组 SELECT user_id, exploded_tag FROM user_interests LATERAL VIEW explode(tags) tmp_table AS exploded_tag; ``` **输出效果**: | user_id | exploded_tag | |---------|--------------| | u001 | sports | | u001 | music | | u002 | reading | --- #### 2. Map类型展开 ```sql -- 用户特征表 CREATE TABLE user_features ( user_id STRING, features MAP<STRING,INT> ); -- 展开Map键值对 SELECT user_id, feature_key, feature_value FROM user_features LATERAL VIEW explode(features) ft AS feature_key, feature_value; ``` **输出效果**: | user_id | feature_key | feature_value | |---------|-------------|---------------| | u001 | login_days | 28 | | u001 | buy_count | 5 | --- ### 三、高级用法技巧 #### 1. 多重LATERAL VIEW ```sql -- 商品属性表 CREATE TABLE product_attrs ( product_id STRING, colors ARRAY<STRING>, sizes ARRAY<STRING> ); -- 双重展开生成笛卡尔积 SELECT product_id, color, size FROM product_attrs LATERAL VIEW explode(colors) c AS color LATERAL VIEW explode(sizes) s AS size; ``` **注意事项**: - 会产生$colors数组长度 \times sizes数组长度$的结果行数 - 可能导致数据量指数级增长[^1] --- #### 2. 带索引的展开(posexplode) ```sql -- 订单操作日志 SELECT order_id, pos, action_type FROM order_logs LATERAL VIEW posexplode(actions) act AS pos, action_type; ``` **输出效果**: | order_id | pos | action_type | |----------|-----|-------------| | o123 | 0 | create | | o123 | 1 | payment | --- ### 四、特殊场景处理 #### 1. 空值处理 ```sql -- 使用coalesce处理空数组 SELECT user_id, coalesce(exploded_tag, 'unknown') AS safe_tag FROM user_interests LATERAL VIEW OUTER explode(tags) tmp AS exploded_tag; ``` **关键点**: - `LATERAL VIEW OUTER` 保留原始记录 - 与`coalesce`配合保证数据完整性 --- #### 2. JSON数据解析 ```sql -- 解析嵌套JSON SELECT order_id, item.product_id, item.quantity FROM orders LATERAL VIEW explode( from_json( items_json, 'array<struct<product_id:STRING,quantity:INT>>' ) ) items AS item; ``` --- ### 五、性能优化方案 #### 1. 数据预处理 ```sql -- 提前过滤空数组 SELECT * FROM table WHERE size(data_array) > 0 LATERAL VIEW explode(data_array) d; ``` #### 2. 执行参数优化 ```sql SET hive.vectorized.execution.enabled=true; -- 启用向量化 SET hive.exec.parallel=true; -- 并行执行 SET hive.optimize.skewjoin=true; -- 处理数据倾斜 ``` --- ### 六、典型错误案例 #### 错误1:直接使用explode ```sql -- 错误示例(缺少LATERAL VIEW) SELECT user_id, explode(tags) FROM user_interests; -- 报错[^3] ``` #### 错误2:字段别名冲突 ```sql -- 错误示例(重复别名) SELECT user_id, ft1.key, ft2.value FROM table LATERAL VIEW explode(map1) ft1 AS key, value LATERAL VIEW explode(map2) ft2 AS key, value; -- 别名重复 ``` --- ### 七、综合应用案例 #### 电商用户行为分析 ```sql -- 原始表结构 CREATE TABLE user_actions ( user_id STRING, view_products ARRAY<STRING>, cart_items ARRAY<STRUCT<product_id:STRING,quantity:INT>> ); -- 多层展开分析 SELECT u.user_id, vp.viewed_product, ci.product_id AS cart_product, ci.quantity FROM user_actions u LATERAL VIEW explode(view_products) vp AS viewed_product LATERAL VIEW explode(cart_items) ci; ``` --- ### 八、新版特性(Hive 3.0+) #### 1. 横向聚合 ```sql SELECT order_id, summary.total_qty, summary.avg_price FROM orders LATERAL VIEW aggregate( transform( items, item -> named_struct('qty', item.quantity, 'price', item.unit_price) ) ) summary AS total_qty, avg_price; ``` #### 2. JSON_TUPLE增强 ```sql SELECT json_tuple(raw_data, '$.name', '$.address.city') AS (user_name, city) FROM json_logs; ``` --- ### 最佳实践建议 1. **数据验证**:使用`size()`函数预判数组长度 ```sql SELECT * FROM table WHERE size(data_array) BETWEEN 1 AND 10 ``` 2. **执行计划分析**:通过`EXPLAIN`查看执行流程 ```sql EXPLAIN SELECT ... LATERAL VIEW explode(...) ``` 3. **数据倾斜处理**:对展开字段进行随机分布 ```sql SELECT /*+ MAPJOIN(skew_data) */ ... FROM table LATERAL VIEW ... ```
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值