【Hive七】Hive用户自定义聚合函数(UDAF)

本文介绍了Hive中的用户自定义聚合函数UDAF,与UDF的区别在于UDAF能处理多个输入并输出一个结果。内容包括UDAF的概念、实现步骤、实例以及在Hive中的使用方法,强调了UDAF在处理聚合操作如求和、平均值等场景中的应用。

用户自定义聚合函数,用户提供的多个入参通过聚合计算(求和、求最大值、求最小值)得到一个聚合计算结果的函数。

问题:UDF也可以提供输入多个参数然后输出一个结果的运算,比如加法运算add(3,5),add这个UDF需要实现UDF的evaluate方法,那么UDF和UDAF的实质分别究竟是什么?

 

Double evaluate(Double a, Double b)

 

1.什么是UDAF

UDF只能实现一进一出的操作,如果需要实现多进一出,则需要实现UDAF。比如: Hive查询数据时,有些聚类函数在HQL没有自带,需要用户自定义实现; 用户自定义聚合函数: Sum, Average

 

2.实现UFAF的步骤

  • 引入如下两下类

 

import org.apache.hadoop.hive.ql.exec.UDAF
import org.apache.hadoop.hive.ql.exec.UDAFEvaluator

 

  • 函数类需要继承UDAF类,计算类Evaluator实现UDAFEvaluator接口
  • Evaluator需要实现UDAFEvaluator的init、iterate、terminatePartial、merge、terminate这几个函数。

       a)init函数实现接口UDAFEvaluator的init函数。
       b)iterate接收传入的参数,并进行内部的迭代。其返回类型为boolean。
       c)terminatePartial无参数,其为iterate函数遍历结束后,返回遍历得到的数据,terminatePartial类似于 hadoop的Combiner。
       d)merge接收terminatePartial的返回结果,进行数据merge操作,其返回类型为boolean。
       e)terminate返回最终的聚集函数结果。

 

3.实例

计算平均数

 

package hive.udaf;

import org.apache.hadoop.hive.ql.exec.UDAF;
import org.apache.hadoop.hive.ql.exec.UDAFEvaluator;

public class Avg extends UDAF {
    public static class AvgState {
        private long mCount;
        private double mSum;

    }

    public static class AvgEvaluator implements UDAFEvaluator {
        AvgState state;

        public AvgEvaluator() {
            super();
            state = new AvgState();
            init();
        }

        /**
         * init函数类似于构造函数,用于UDAF的初始化
         */
        public void init() {
            state.mSum = 0;
            state.mCount = 0;
        }

        /**
         * iterate接收传入的参数,并进行内部的轮转。其返回类型为boolean * * @param o * @return
         */

        public boolean iterate(Double o) {
            if (o != null) {
                state.mSum += o;
                state.mCount++;
            }
            return true;
        }

        /**
         * terminatePartial无参数,其为iterate函数遍历结束后,返回轮转数据, * terminatePartial类似于hadoop的Combiner * * @return
         */

        public AvgState terminatePartial() {
            // combiner
            return state.mCount == 0 ? null : state;
        }

        /**
         * merge接收terminatePartial的返回结果,进行数据merge操作,其返回类型为boolean * * @param o * @return
         */

        public boolean merge(AvgState avgState) {
            if (avgState != null) {
                state.mCount += avgState.mCount;
                state.mSum += avgState.mSum;
            }
            return true;
        }

        /**
         * terminate返回最终的聚集函数结果 * * @return
         */
        public Double terminate() {
            return state.mCount == 0 ? null : Double.valueOf(state.mSum / state.mCount);
        }
    }
}
 

 

4. Hive中使用UDAF

  • 将java文件编译成udaf_avg.jar
  • 进入hive客户端添加jar包
hive>add jar /home/hadoop/udaf_avg.jar

 

  • 创建临时函数
hive>create temporary function udaf_avg 'hive.udaf.Avg'

 

  • 查询语句
hive>select udaf_avg(people.age) from people

 

  • 销毁临时函数
hive>drop temporary function udaf_avg
 

 

5. 总结

通过上面的介绍,可以看到UDAF的用法与UDF的区别了,UDF虽然可以接收多个入参,但是参数个数是固定的(其实也可以不固定,只要evaluate方法的参数类型是变长参数即可,但是一般不这么用),而UDAF的入参是元素个数不固定的集合,这个集合只要可遍历(使用Evaluator的iterate方法遍历)即可,上面的入参是people表的所有age列。

 

UDF是对只有单条记录的列进行的计算操作,而UDFA则是用户自定义的聚类函数,是基于表的所有记录进行的计算操作。

 

 

 

 

 

 

 

 

 

 

 

### 创建以 `agg` 开头的 Hive 自定义聚合函数 (UDAF)Hive 中,自定义聚合函数(User Defined Aggregate Function, UDAF)是一种强大的工具,用于实现复杂的聚合逻辑。以下是关于如何开发一个以 `agg` 为前缀的自定义聚合函数的具体说明。 #### 1. **基本概念** HiveUDAF 是通过 Java 编程语言来实现的。通常情况下,开发者会继承 `org.apache.hadoop.hive.ql.udf.generic.GenericUDAFResolver` 类并重写其方法。此过程涉及三个主要阶段:初始化、迭代和终止[^1]。 #### 2. **开发步骤** ##### (1)创建 Maven 工程 为了方便管理依赖项,建议使用 Maven 来构建项目。以下是一个典型的 `pom.xml` 文件配置: ```xml <dependencies> <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-exec</artifactId> <version>3.1.2</version> </dependency> </dependencies> ``` ##### (2)编写核心代码 下面展示了一个简单的例子——名为 `AggCountDistinct` 的自定义聚合函数,它计算某一列的不同值数量。 ```java package com.example.hive.udaf; import org.apache.hadoop.hive.ql.exec.UDAF; import org.apache.hadoop.hive.ql.metadata.HiveException; import org.apache.hadoop.hive.ql.parse.SemanticException; import org.apache.hadoop.hive.ql.udf.generic.AbstractGenericUDAFResolver; import org.apache.hadoop.hive.ql.udf.generic.GenericUDAFEvaluator; import org.apache.hadoop.io.LongWritable; public class AggCountDistinct extends AbstractGenericUDAFResolver { @Override public GenericUDAFEvaluator getEvaluator(GenericUDAFParameterInfo info) throws SemanticException { return new CountDistinctEvaluator(); } public static class CountDistinctEvaluator extends GenericUDAFEvaluator { private transient Set<Object> distinctValues; @Override public void init(Mode m, ObjectInspector[] parameters) throws HiveException { super.init(m, parameters); this.distinctValues = new HashSet<>(); } @Override public AggregationBuffer getNewAggregationBuffer() throws HiveException { return new Buffer(); } @Override public void reset(AggregationBuffer agg) throws HiveException { ((Buffer) agg).distinctValues.clear(); } @Override public void iterate(AggregationBuffer agg, Object[] parameters) throws HiveException { if (parameters[0] != null) { ((Buffer) agg).distinctValues.add(parameters[0]); } } @Override public Object terminatePartial(AggregationBuffer agg) throws HiveException { return Long.valueOf(((Buffer) agg).distinctValues.size()); } @Override public void merge(AggregationBuffer agg, Object partial) throws HiveException { long size = ((LongWritable) partial).get(); ((Buffer) agg).distinctValues.addAll(new ArrayList<>(size)); } @Override public Object terminate(AggregationBuffer agg) throws HiveException { return Long.valueOf(((Buffer) agg).distinctValues.size()); } public static class Buffer implements AggregationBuffer { public Set<Object> distinctValues = new HashSet<>(); } } } ``` 上述代码实现了对输入数据去重计数的功能,并命名为 `AggCountDistinct`。 ##### (3)打包与部署 完成编码后,需将工程打包成 JAR 文件并通过如下命令加载到 Hive 中: ```sql ADD JAR /path/to/your/jarfile.jar; CREATE TEMPORARY FUNCTION agg_count_distinct AS 'com.example.hive.udaf.AggCountDistinct'; ``` #### 3. **注意事项** 需要注意的是,在某些 Hive 版本中可能存在兼容性问题。例如,部分版本可能无法直接支持多 DISTINCT 计算操作。如果遇到类似情况,则可以考虑改用其他替代方案或者升级至更高版本的 Hive 引擎[^2]。 #### 4. **测试验证** 最后一步是对新编写的 UDAF 进行充分测试,确保其能够正确处理各种边界条件以及异常场景下的输入数据集。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值