Flink 提交jar,报错no class Configuration not find

博客内容描述了在使用Flink将数据sink到Hbase时遇到的错误,以及解决问题的两个步骤:配置环境变量和替换特定的jar包。重点在于Uber jar与非Uber jar的区别,作者指出Uber jar解决了问题,但未详细说明具体差异。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

bug描述

在Flink将数据sink到Hbase里面,提交作业到flink 集群运行报错。

在这里插入图片描述

解决方案

1、刚开始是将hbase_home,hadoop_home 配置环境变量到/et/profile文件。
2、将flink-shaded-hadoop-2-uber-2.7.5-7.0.jar 放到flink/lib文件夹下面。注意这里有个坑:
就是这个jar我第一次下载的是flink-shaded-hadoop-2-2.7.5-7.0.jar这个包,就报上面的错误,后来我替换成-uber的jar包就不报错了。

疑问

带uber的jar包和不带uber的jar的区别是什么?

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值