Flink实战教程-自定义函数之TableFunction


今天我们来聊聊flink sql中另外一种自定义函数-TableFuntion.
TableFuntion 可以有0个、一个、多个输入参数,他的返回值可以是任意行,每行可以有多列数据.

实现自定义TableFunction需要继承TableFunction类,然后定义一个public类型的eval方法。结合官网的例子具体来讲解一下。

自定义函数

单个eval方法


   public static class Split extends TableFunction<Tuple2<String,Integer>> {
        private String separator = ",";

        public Split(String separator) {
            this.separator = separator;
        }

        public void eval(String str) {
            for (String s : str.split(separator)) {
                collect(new Tuple2<String,Integer>(s, s.length()));
            }
        }
    }

来解释一下:

  1. 这个函数接收一个字符串类型的入参,将传进来的字符串用指定分隔符拆分,然后返回值是一组Tuple2,每个Tuple2包含单词以及其长度.
  2. TableFunction是一个泛型类,需要指定返回值类型
  3. 不同于标量函数,eval方法没有返回值,使用collect方法来收集对象。

多个eval方法


	/**
	 * 注册多个eval方法,接收long或者string类型的参数,然后将他们转成string类型
	 */
	public static class DuplicatorFunction extends TableFunction<String>{
		public void eval(Long i){
			eval(String.valueOf(i));
		}

		public void eval(String s){
			collect(s);
		}
	}

不固定参数

	/**
	 * 接收不固定个数的int型参数,然后将所有数据依次返回
	 */
	public static class FlattenFunction extends TableFunction<Integer>{
		public void eval(Integer... args){
			for (Integer i: args){
				collect(i);
			}
		}
	}

通过注解指定返回类型


	/**
	 * 通过注册指定返回值类型,flink 1.11 版本开始支持
	 */
    @FunctionHint(output = @DataTypeHint("ROW< i INT, s STRING >"))
    class DuplicatorFunction extends TableFunction<Row> {
      public void eval(Integer i, String s) {
        collect(Row.of(i, s));
        collect(Row.of(i, s));
      }
    }

注册函数

这里使用blink的planner,然后把上述三个函数都注册了


		StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		EnvironmentSettings bsSettings = EnvironmentSettings.newInstance()
		                                                    .useBlinkPlanner()
		                                                    .inStreamingMode()
		                                                    .build();
		StreamTableEnvironment tEnv = StreamTableEnvironment.create(env, bsSettings);

		tEnv.registerFunction("split", new Split(" "));
		tEnv.registerFunction("duplicator", new DuplicatorFunction());
		tEnv.registerFunction("flatten", new FlattenFunction());

构造数据源


        List<Tuple2<Long,String>> ordersData = new ArrayList<>();
        ordersData.add(Tuple2.of(2L, "Euro"));
        ordersData.add(Tuple2.of(1L, "US Dollar"));
        ordersData.add(Tuple2.of(50L, "Yen"));
        ordersData.add(Tuple2.of(3L, "Euro"));

        DataStream<Tuple2<Long,String>> ordersDataStream = env.fromCollection(ordersData);
        Table orders = tEnv.fromDataStream(ordersDataStream, "amount, currency, proctime.proctime");
        tEnv.registerTable("Orders", orders);

查询

left join


	Table result = tEnv.sqlQuery(
				"SELECT o.currency, T.word, T.length FROM Orders as o LEFT JOIN LATERAL TABLE(split(currency)) as T(word, length) ON TRUE");
		tEnv.toAppendStream(result, Row.class).print();

解释一下:

  • 有两种使用方式, 使用 join的时候用LATERAL TABLE ,使用left join的时候用LATERAL TABLE … ON TRUE.
  • 给TableFuntion返回的数据起一个别名:T(word, length),其中T是表的别名,word和length是字段别名,所以我们可以在sql中通过o.currency, T.word, T.length来查询字段。

join


	String sql = "SELECT o.currency, T.word, T.length FROM Orders as o ," +
		             " LATERAL TABLE(split(currency)) as T(word, length)";

多种类型参数

		String sql2 = "SELECT * FROM Orders as o , " +
		              "LATERAL TABLE(duplicator(amount))," +
		              "LATERAL TABLE(duplicator(currency))";

不固定参数类型

	String sql3 = "SELECT * FROM Orders as o , " +
		              "LATERAL TABLE(flatten(100,200,300))";

今天这个TableFuntion我们就先讲到这里,后续我们通过自定义的TableFuntion来实现一个mysql维表和hbase维表功能,用来在流式数据中补全字段信息.
完整代码请参考:

https://github.com/zhangjun0x01/bigdata-examples/blob/master/flink/src/main/java/sql/function/CustomTableFunction.java

更多精彩内容,欢迎关注我的公众号【大数据技术与应用实战】!

在这里插入图片描述

### 在 Flink SQL 中集成和使用 Hive 自定义函数(UDF) 要在 Flink SQL 中集成和使用 Hive 自定义函数(UDF),可以按照以下方法进行配置和操作。以下是详细的说明以及相关注意事项。 --- #### 1. 加载 HiveModule 为了能够正常使用 Hive 的内置 UDF 或者自定义 UDF,首先需要加载 `HiveModule`。这一步骤使得 Flink 能够识别并调用 Hive 的系统函数[^1]。 代码示例 (Java): ```java import org.apache.flink.table.api.EnvironmentSettings; import org.apache.flink.table.api.TableEnvironment; public class LoadHiveModule { public static void main(String[] args) { EnvironmentSettings settings = EnvironmentSettings.newInstance().useBlinkPlanner().inBatchMode().build(); TableEnvironment tableEnv = TableEnvironment.create(settings); // 加载 HiveModule tableEnv.getConfig().getConfiguration().setString("table.modules", "hive"); System.out.println("HiveModule 已成功加载!"); } } ``` 注意:确保使用的 Planner 是 Blink Planner,因为只有 Blink Planner 支持完整的 Hive 功能集[^2]。 --- #### 2. 配置 HiveCatalog 为了让 Flink 访问 Hive Metastore 并获取其中的 UDF 定义,必须正确配置 `HiveCatalog`。该步骤还包括指定 Hive 的配置目录位置。 代码示例 (Java): ```java import org.apache.flink.table.catalog.hive.HiveCatalog; public class ConfigureHiveCatalog { public static void main(String[] args) throws Exception { String name = "my_hive_catalog"; String defaultDatabase = "default"; String hiveConfDir = "/path/to/hive/conf"; HiveCatalog catalog = new HiveCatalog(name, defaultDatabase, hiveConfDir); tableEnv.registerCatalog(catalog.getName(), catalog); System.out.println("HiveCatalog 注册成功!"); } } ``` --- #### 3. 将 Hive UDF JAR 包加入 ClassPath 如果要使用自定义的 Hive UDF,则需要将包含这些 UDF 的 JAR 文件放置到 Flink 的类路径中。具体做法是将 JAR 文件复制到 Flink 的 `lib` 目录下,或者通过命令行参数 `-C` 显式指定其路径[^2]。 例如: ```bash ./bin/flink run -c com.example.MyJob \ -C file:///path/to/my_udf.jar \ ./job.jar ``` --- #### 4. 使用 Hive UDF 当完成上述准备后,可以在 Flink SQL 中直接调用 Hive 的 UDF 函数。需要注意的是,某些特殊类型的 UDF 可能需要额外的类型适配器来处理数据格式差异[^3]。 SQL 示例: ```sql -- 假设存在一个名为 my_custom_udf 的 Hive UDF SELECT id, my_custom_udf(data_column) AS processed_data FROM source_table; ``` --- #### 5. 注意事项 - **版本兼容性**:确保 Flink 和 Hive 的版本兼容,否则可能会遇到运行时异常。 - **数据类型映射**:部分 Hive 数据类型可能无法直接映射到 Flink 类型体系中,需手动调整或编写转换逻辑[^4]。 - **性能优化**:对于复杂的 UDF 运算场景,应关注执行计划是否合理,并适当增加资源分配以提高吞吐量。 --- ### 示例总结 综合来看,整个流程涉及以下几个核心环节:加载 HiveModule、注册 HiveCatalog、导入必要的 JAR 包以及最后在 SQL 查询中应用所需的 UDF 函数[^5]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值