Flink实时数仓
努力有什么不好
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Flink1.17.1standalone集群部署中主节点日志连接taskmanager的拒绝连接解决方案(拒绝连接: localhost/127.0.0.1:36125)
Flink 使用 Akka 进行 JobManager 和 TaskManager 之间的通信。Akka 的通信地址需要正确配置为 JobManager 的实际 IP 或主机名。在集群部署时配置了rpc通信 jobmanager.rpc.address: jobManager IP,但是还是报错。[java.net.ConnectException: 拒绝连接: localhost/127.0.0.1:36125]需要增加 Akka 的通信地址配置。TaskManager的配置。原创 2025-03-18 15:30:38 · 621 阅读 · 0 评论 -
自定义AsyncTableFunction后,eval 方法参数类型总是报错
如果不是使用FlinkSQL开发,可以使用DataStream API 实现 Async I/O,实现RichAsyncFunction。自定义异步表函数AsyncTableFunction后,在Flink SQL中使用时,总是报错函数签名不匹配的。如果使用FlinkSQL开发,可以实现TableFunction,并创建线程池用于异步查询。尝试修改eval函数如下,强制输入的类型为string。修改成如下的代码,表示 eval 的参数可以是任意类型。还是报错,报错信息同上。报错,报错信息同上。原创 2025-03-26 17:17:50 · 476 阅读 · 0 评论 -
Flink自定义KafkaSource报错java.lang.IllegalStateException
在IDEA中执行测试自定义KafkaSource报错,Flink程序如下:@Test原因:java.lang.IllegalStateException: No ExecutorFactory found to execute the application 这个错误通常是由于 Flink 无法找到合适的执行器工厂来执行应用程序。这通常与 Flink 的依赖配置有关,尤其是在本地执行时。原创 2025-02-18 10:49:11 · 258 阅读 · 0 评论 -
Flink1.17.1 upsert-kafka连接器好像不支持时间戳
博主在测试的时候发现,普通的kafka连接器使用时间戳TIMESTAMP或者TIMESTAMP_LIZ没有问题,但是upsert-kafka连接器使用的时候就是报错。原创 2025-03-07 16:23:48 · 336 阅读 · 0 评论 -
Flink1.17.1本地单节点部署,并支持连接mysql-cdc
Flink官网中问答部分有介绍flink-sql-connector-mysql-cdc和flink-connector-mysql-cdc的区别以及使用场景,flink-sql-connector-mysql-cdc包括了Flink SQL执行所需的依赖,是个fat jar,只需导入这个包就可以执行Flink SQL连接mysql-cdc。下载flink-sql-connector-mysql-cdc-2.4.2.jar,上传到lib目录。验证insert、delete、update操作,能实时更新。原创 2025-02-28 14:17:49 · 572 阅读 · 0 评论 -
Flink集群的类加载机制导致某些配置或代码逻辑被覆盖的问题解决方案
博主在测试flink开发任务的时候发现,以下代码在本地测试的时候没有问题,但是上传到flink集群中跑的时候,数据发送不到指定的kafka主题sinkTopic,而是发送了其他的 topic。...原创 2025-03-20 16:22:58 · 719 阅读 · 0 评论 -
Flink1.17.1部署中JDBC连接器配置(各种Connectors使用,持续更新中)
下载地址https://mvnrepository.com/artifact/org.apache.flink/flink-connector-jdbc/3.1.1-1.17,下载flink-connector-jdbc-3.1.1-1.17.jar。博主的Flink集群中已经上传了mysql-connector-java-8.0.27.jar,要用执行FlinkSQL,还需要上传flink-connector-jdbc的jar包。因博主前期配置了mysql-cdc,需要配置的可以参考博主主页另一篇文章。原创 2025-03-06 16:56:55 · 1572 阅读 · 0 评论 -
FlinkSQL类型转换问题
报错原因,Flink1.17.1,FlinkSQL不支持INT和VARCHAR类型的隐式转换,如果需要可以使用 CAST 函数将类型统一。例如,将 VARCHAR 类型转换为 INT,或者将 INT 类型转换为 VARCHAR。原创 2025-03-04 17:14:31 · 575 阅读 · 0 评论 -
Flink1.17.1实现表函数后返回Row类型SQL自动处理为一个字段的解决办法,适用FlinkSQL开发
但是在FlinkSQL中使用的时候发现,SQL 中默认只显示为一个字段,这是因为 SQL 引擎在处理这类数据时,默认会将 ROW 类型的数据作为一个整体来处理,而不是将其拆分为单独的列。在Flink实时数据关联MySQL维表时,如果数据量太大,通常无法全量加载到flink中,因此博主自定义一个lookup表函数。2. SQL中再拆分。原创 2025-03-12 16:31:40 · 1121 阅读 · 0 评论
分享