hive常用UDF and UDTF函数介绍-lateral view explode()

本文介绍了Hive中常用的用户自定义函数(UDF),包括字符串处理、正则表达式操作、URL及JSON解析等功能,并提供了丰富的实例演示如何使用这些函数来处理数据。

前言:

Hive是基于Hadoop中的MapReduce,提供HQL查询的数据仓库。这里只大概说下Hive常用到的UDF函数,全面详细介绍推荐官网wiki:https://cwiki.apache.org/confluence/display/Hive/LanguageManual+UDF
定义:

UDF(User-Defined-Function),用户自定义函数对数据进行处理。

UDTF(User-Defined Table-Generating Functions) 用来解决 输入一行输出多行(On-to-many maping) 的需求。

UDAF(User Defined Aggregation Function)用户自定义聚合函数,操作多个数据行,产生一个数据行。
用法:

1、UDF函数可以直接应用于select语句,对查询结构做格式化处理后,再输出内容。

2、编写UDF函数的时候需要注意一下几点:

a)自定义UDF需要继承org.apache.hadoop.hive.ql.UDF。

b)需要实现evaluate函。

c)evaluate函数支持重载。

Hive已定义函数介绍:
1、字符串长度函数:length
语法: length(string A)
返回值: int
举例:
[sql] view plain copy

hive> select length(‘abcedfg’) from dual;  
7  

2、字符串反转函数:reverse
语法: reverse(string A)
返回值: string
说明:返回字符串A的反转结果

举例:

[sql] view plain copy

hive> select reverse(‘abcedfg’) from dual;  
gfdecba  

3、字符串连接函数:concat
语法: concat(string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,支持任意个输入字符串

举例:

[sql] view plain copy

hive> select concat(‘abc’,'def’,'gh’) from dual;  
abcdefgh  

4、带分隔符字符串连接函数:concat_ws

语法: concat_ws(string SEP, string A, string B…)
返回值: string
说明:返回输入字符串连接后的结果,SEP表示各个字符串间的分隔符
举例:
[sql] view plain copy

hive> select concat_ws(‘,’,'abc’,'def’,'gh’) from dual;  
abc,def,gh  

5、字符串截取函数:substr,substring

语法: substr(string A, int start),substring(string A, int start)
返回值: string
说明:返回字符串A从start位置到结尾的字符串
举例:
[sql] view plain copy

hive> select substr(‘abcde’,3) from dual;  
cde  
hive> select substring(‘abcde’,3) from dual;  
cde  
hive> select substr(‘abcde’,-1) from dual;  (和ORACLE相同)  
e  

6、字符串大小写转换

字符串转大写函数:upper,ucase

字符串转小写函数:lower,lcase

语法: lower(string A) lcase(string A)
返回值: string
说明:返回字符串A的小写格式
举例:
[sql] view plain copy

hive> select lower(‘abSEd’) from dual;  
absed  
hive> select lcase(‘abSEd’) from dual;  
absed  

7、左右去除空格函数

左边去空格函数:ltrim

右边去空格函数:rtrim
8、正则表达式替换函数:regexp_replace

语法: regexp_replace(string A, string B, string C)
返回值: string
说明:将字符串A中的符合java正则表达式B的部分替换为C。注意,在有些情况下要使用转义字符
举例:
[sql] view plain copy

hive> select regexp_replace(‘foobar’, ‘oo|ar’, ”) from dual;  
fb  

9、正则表达式解析函数:regexp_extract

语法: regexp_extract(string subject, string pattern, int index)
返回值: string
说明:将字符串subject按照pattern正则表达式的规则拆分,返回index指定的字符。注意,在有些情况下要使用转义字符
举例:
[sql] view plain copy

hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 1) from dual;  
the  
hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 2) from dual;  
bar  
hive> select regexp_extract(‘foothebar’, ‘foo(.*?)(bar)’, 0) from dual;  
foothebar  

10、URL解析函数:parse_url,parse_url_tuple(UDTF)

语法: parse_url(string urlString, string partToExtract [, string keyToExtract]),parse_url_tuple功能类似parse_url(),但它可以同时提取多个部分并返回
返回值: string
说明:返回URL中指定的部分。partToExtract的有效值为:HOST, PATH, QUERY, REF, PROTOCOL, AUTHORITY, FILE, and USERINFO.
举例:
[sql] view plain copy

hive> select parse_url(‘http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1′, ‘HOST’) from dual;  
facebook.com  
hive> select parse_url_tuple('http://facebook.com/path1/p.php?k1=v1&k2=v2#Ref1', 'QUERY:k1', 'QUERY:k2');  
v1 v2  

11、json解析函数:get_json_object

语法: get_json_object(string json_string, string path)
返回值: string
说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。
举例:
[sql] view plain copy

hive> select  get_json_object(‘{“store”:  
>   {“fruit”:\[{"weight":8,"type":"apple"},{"weight":9,"type":"pear"}],  
>    “bicycle”:{“price”:19.95,”color”:”red”}  
>   },  
>  “email”:”amy@only_for_json_udf_test.net”,  
>  “owner”:”amy”  
> }  
> ‘,’$.owner’) from dual;  
amy  

12、集合查找函数: find_in_set

语法: find_in_set(string str, string strList)
返回值: int
说明: 返回str在strlist第一次出现的位置,strlist是用逗号分割的字符串。如果没有找该str字符,则返回0(只能是逗号分隔,不然返回0)
举例:
[sql] view plain copy

hive> select find_in_set(‘ab’,'ef,ab,de’) from dual;  
2  
hive> select find_in_set(‘at’,'ef,ab,de’) from dual;  
0  

13、行转列:explode (posexplode Available as of Hive 0.13.0)

说明:将输入的一行数组或者map转换成列输出
语法:explode(array (or map))
举例:

[sql] view plain copy

hive> select explode(split(concat_ws(',','1','2','3','4','5','6','7','8','9'),',')) from test.dual;  
1  
2  
3  
4  
5  
6  
7  
8  
9  

14、多行转换:lateral view

说明:lateral view用于和json_tuple,parse_url_tuple,split, explode等UDTF一起使用,它能够将一行数据拆成多行数据,在此基础上可以对拆分后的数据进行聚合。
举例:

[sql] view plain copy

hive> select s.x,sp from test.dual s lateral view explode(split(concat_ws(',','1','2','3','4','5','6','7','8','9'),',')) t as sp;  
x sp  
a 1  
b 2  
a 3  

解释一下,from后面是你的表名,在表名后面加lateral view explode。。。(你的行转列sql) ,还必须要起一个别名,我这个字段的别名为sp。然后再看看select后面的 s.*,就是原表的字段,我这里面只有一个字段,且为X

多个lateral view的sql类如:

[sql] view plain copy

SELECT * FROM exampleTable LATERAL VIEW explode(col1) myTable1 AS myCol1 LATERAL VIEW explode(myCol1) myTable2 AS myCol2;  

抽取一行数据转换到新表的多列样例:

http_referer是获取的带参数请求路径,其中非法字符用\做了转义,根据路径解析出地址,查询条件等存入新表中,

[sql] view plain copy

drop table if exists t_ods_tmp_referurl;  
create table t_ ods _tmp_referurl as  
SELECT a.*,b.*  
FROM ods_origin_weblog a LATERAL VIEW parse_url_tuple(regexp_replace(http_referer, "\"", ""), 'HOST', 'PATH','QUERY', 'QUERY:id') b as host, path, query, query_id;   

复制表,并将时间截取到日:

[sql] view plain copy

drop table if exists t_ods_tmp_detail;  
create table t_ods_tmp_detail as   
select b.*,substring(time_local,0,10) as daystr,  
substring(time_local,11) as tmstr,  
substring(time_local,5,2) as month,  
substring(time_local,8,2) as day,  
substring(time_local,11,2) as hour  
From t_ ods _tmp_referurl b;  
<think> 嗯,用户这次想了解Hive常用函数UDF、UDAF和UDTF的举例说明。根据提供的参考资料,我需要清晰区分这三类自定义函数的特点和典型应用场景。 用户可能是大数据开发工程师或数据分析师,正在处理Hive数据仓库的复杂计算需求。从ta直接要求"举例说明"来看,ta更关注实际代码实现而非理论概念,可能需要立刻应用到工作中。 先整理核心知识点:UDF处理单行输入输出单值,适合数据清洗转换;UDAF处理多行聚合输出单值,类似sum/max;UDTF处理单行输出多行,用于数据炸裂。三类函数覆盖了Hive无法原生支持的复杂计算场景。 注意到引用[3]提供了UDF的具体代码案例,这个很实用可以引用。但需要补充UDAF和UDTF的完整示例,引用资料里没有详细代码。考虑到用户需要"常用函数"举例,我决定: 1)用Java实现一个字符串转小写的UDF(简化版) 2)用伪代码+步骤解析UDAF的聚合过程 3)用完整Java代码展示UDTF的行转列操作 特别说明UDTF需要与LATERAL VIEW结合使用,这是用户容易忽略的关键点。最后准备三个相关问题:性能优化和复杂类型处理,这样既能解答当前问题又能延伸学习路径。 用户引用的资料质量不错但不够全面,特别是缺少UDAF/UDTF的代码。我会在保持引用标注的同时补充完整案例,确保每个函数类型都有可运行的示例。 </think> 好的,这是关于 Hive 常用自定义函数 UDF、UDAF 和 UDTF 的详细说明及典型案例: Hive 的自定义函数 (User-Defined Functions, UDFs) 极大地扩展了其内置函数的能力,允许用户针对特定业务逻辑编写处理逻辑。主要分为三类:UDF(用户定义函数)、UDAF(用户定义聚合函数)、UDTF(用户定义表生成函数)。以下是它们的概念、区别及典型代码举例: --- ### 一、UDF (User-Defined Function - 用户定义函数) * **概念**:处理**单行输入数据**,返回**单个输出值**。类似于 SQL 中的标量函数(如 `LOWER()`, `ABS()`, `ROUND()`)。用于数据清洗、转换、计算单个值等场景。 * **特点**: * 输入:一行中的一列或多列(作为函数参数)。 * 输出:一个值(基本数据类型或复杂类型)。 * 处理粒度:行级别。 * **实现方式**: 1. 继承 `org.apache.hadoop.hive.ql.exec.UDF` 类。 2. 实现 `evaluate` 方法(可以重载多个 `evaluate` 方法以处理不同类型的参数)。 3. 方法逻辑写在 `evaluate` 中。 * **典型案例**: * **功能**:将字符串转换为全小写。 * **代码** (引用自资料[^3]并简化): ```java package com.example.udf; import org.apache.hadoop.hive.ql.exec.UDF; public class LowerCaseUDF extends UDF { // 处理 String 类型输入 public String evaluate(String input) { if (input == null) { return null; } return input.toLowerCase(); } // 【可选】重载处理其他类型,例如处理整数加法 (资料[^3]中的加法例子) // public int evaluate(int a, int b) { // return a + b; // } } ``` * **Hive SQL 中使用**: ```sql ADD JAR /path/to/your_udf.jar; -- 添加包含UDF类的JAR包 CREATE TEMPORARY FUNCTION to_lower AS 'com.example.udf.LowerCaseUDF'; -- 注册临时函数 SELECT to_lower(column_name) FROM your_table; -- 使用函数 ``` --- ### 二、UDAF (User-Defined Aggregate Function - 用户定义聚合函数) * **概念**:处理**多行输入数据**(一个分组内的数据),返回**单个聚合结果**。类似于 SQL 中的聚合函数(如 `SUM()`, `COUNT()`, `AVG()`, `MAX()`, `MIN()`)。用于分组统计、聚合计算等场景。 * **特点**: * 输入:一个分组(Group)内的多行数据(通常是某一列的值)。 * 输出:一个聚合值(基本数据类型或复杂类型)。 * 处理粒度:组级别(需要配合 `GROUP BY` 使用)。 * **实现方式** (较复杂):需要实现几个关键方法: 1. **`init()` (或 `initialize()`)**:初始化聚合缓冲区(存储中间计算结果的结构)。 2. **`iterate()`**:处理传入的新一行数据,更新聚合缓冲区。 3. **`merge()`**:将部分聚合结果(来自其它mapper/reducer)合并到当前聚合缓冲区。 4. **`terminate()` (或 `terminatePartial()`)**:返回最终的聚合结果。 * 通常继承 `org.apache.hadoop.hive.ql.exec.UDAF` 类,并在内部定义一个实现 `org.apache.hadoop.hive.ql.exec.UDAFEvaluator` 接口的静态类(如 `Evaluator`)。 * **典型案例**: * **功能**:计算一列数值的**几何平均数**(n个数值连乘积的n次方根)。 * **代码示例** (伪代码描述逻辑): ```java package com.example.udaf; import org.apache.hadoop.hive.ql.exec.UDAF; import org.apache.hadoop.hive.ql.exec.UDAFEvaluator; import org.apache.hadoop.io.DoubleWritable; public class GeometricMeanUDAF extends UDAF { // 内部静态类实现 Evaluator public static class GeometricMeanEvaluator implements UDAFEvaluator { // 内部状态:存储累积乘积和累积计数 private static class State { double product = 1.0; long count = 0; } private State state; // 初始化 public void init() { state = new State(); } // 处理新行:累积乘积,增加计数 public boolean iterate(DoubleWritable value) { if (value != null) { state.product *= value.get(); state.count++; return true; } return false; } // 返回当前部分聚合状态 (可序列化传输) public State terminatePartial() { return state.count == 0 ? null : state; } // 合并来自其他部分的结果 public boolean merge(State other) { if (other != null) { state.product *= other.product; state.count += other.count; return true; } return false; } // 计算并返回最终结果:几何平均数 = product^(1/count) public DoubleWritable terminate() { if (state.count == 0) { return null; // 避免除以零 } double result = Math.pow(state.product, 1.0 / state.count); return new DoubleWritable(result); } } } ``` * **Hive SQL 中使用**: ```sql ADD JAR /path/to/your_udaf.jar; CREATE TEMPORARY FUNCTION geom_mean AS 'com.example.udaf.GeometricMeanUDAF'; SELECT category, geom_mean(sales_amount) AS avg_sales_geom FROM sales_data GROUP BY category; ``` --- ### 三、UDTF (User-Defined Table-Generating Function - 用户定义表生成函数) * **概念**:处理**单行输入数据**,返回**多行多列的输出(一张虚拟表)**。类似于 SQL 中的 `EXPLODE()` 或 `LATERAL VIEW` 结合内置函数。用于将一行数据展开成多行(如解析数组、Map、JSON 字符串)或生成序列等场景。 * **特点**: * 输入:一行数据(可以包含多个列)。 * 输出:零行、一行或多行数据(每行可以包含多个列)。 * 处理粒度:行级别输出表级别结果。 * 必须与 `LATERAL VIEW` 子句结合使用。 * **实现方式**: 1. 继承 `org.apache.hadoop.hive.ql.udf.generic.GenericUDTF` 类。 2. 实现三个主要方法: * **`initialize()`**:定义 UDTF 返回的输出列名和类型。 * **`process(Object[] args)`**:核心处理逻辑。接收一行输入的参数。调用 `forward(Object[] resultRow)` 方法一次或多次将结果行输出。 * **`close()`**:清理资源(可选)。 * **典型案例**: * **功能**:将逗号分隔的字符串拆分成多行。 * **代码示例**: ```java package com.example.udtf; import org.apache.hadoop.hive.ql.exec.UDFArgumentException; import org.apache.hadoop.hive.ql.exec.UDFArgumentLengthException; import org.apache.hadoop.hive.ql.metadata.HiveException; import org.apache.hadoop.hive.ql.udf.generic.GenericUDTF; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspectorFactory; import org.apache.hadoop.hive.serde2.objectinspector.StructObjectInspector; import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory; import java.util.ArrayList; import java.util.List; public class SplitStringUDTF extends GenericUDTF { // 声明输出列名和类型(这里输出一列,类型为String) @Override public StructObjectInspector initialize(ObjectInspector[] args) throws UDFArgumentException { // 检查参数个数(1个) if (args.length != 1) { throw new UDFArgumentLengthException("SplitStringUDTF takes exactly one argument"); } // 检查参数类型是否为String if (args[0].getTypeName() != "string") { throw new UDFArgumentException("SplitStringUDTF argument must be a string"); } // 定义输出列名 List fieldNames = new ArrayList<>(); fieldNames.add("split_value"); // 定义输出列类型 List fieldOIs = new ArrayList<>(); fieldOIs.add(PrimitiveObjectInspectorFactory.javaStringObjectInspector); // 返回StructObjectInspector描述输出结构 return ObjectInspectorFactory.getStandardStructObjectInspector(fieldNames, fieldOIs); } // 核心处理逻辑:拆分输入字符串并逐行输出 @Override public void process(Object[] args) throws HiveException { // 获取输入参数(第一个参数) String input = args[0].toString(); if (input == null || input.isEmpty()) { return; // 空输入直接返回,不输出行 } // 按逗号拆分字符串 String[] tokens = input.split(","); // 创建输出行数组(只有一列) String[] output = new String[1]; // 循环拆分后的每个 token,将其作为一行输出 for (String token : tokens) { output[0] = token.trim(); // 去除空格 forward(output); // 调用forward输出一行 } } // 清理(可选) @Override public void close() throws HiveException { // 通常无需特殊清理 } } ``` * **Hive SQL 中使用**: ```sql ADD JAR /path/to/your_udtf.jar; CREATE TEMPORARY FUNCTION split_string AS 'com.example.udtf.SplitStringUDTF'; -- 原始数据:id | tags -- 1 | apple,banana,orange -- 2 | grape,peach SELECT id, split_value FROM your_table LATERAL VIEW split_string(tags) tag_table AS split_value; -- 结果: -- id | split_value -- 1 | apple -- 1 | banana -- 1 | orange -- 2 | grape -- 2 | peach ``` --- **总结与应用场景**: | 类型 | 输入行数 | 输出行数 | 输出列数 | 典型应用场景 | 类比 SQL 函数/操作 | | :--- | :------- | :------------- | :------- | :------------------------------------- | :------------------------- | | UDF | **1** | **1** (值) | 1 | 单行数据清洗、转换、计算 (e.g., 转小写, 字符串拼接, 复杂计算) | `LOWER()`, `CONCAT()`, `ABS()` | | UDAF | **多** | **1** (聚合值) | 1 | 分组聚合统计 (e.g., 平均值, 最大值, 自定义聚合如几何平均) | `SUM()`, `COUNT()`, `AVG()`, `MAX()` | | UDTF | **1** | **多** (表) | 多 | 行数据展开/爆炸 (e.g., 拆分字符串, 解析JSON/Array/Map, 生成序列) | `EXPLODE()`, `LATERAL VIEW json_tuple()` | 通过灵活使用 UDF、UDAF 和 UDTF,可以解决 Hive 内置函数无法处理的复杂业务逻辑,极大地增强了 Hive 的数据处理能力[^1][^2][^3][^4]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值