如果发生这个问题就是因为flink没有hadoop的依赖,
一共有两种解决方式
1、自己去网上找hadoop-uber的包放在flink的lib目录下
2、添加环境变量
sudo vim /etc/profile.d/env.sh
运行后向这个文件中添加

其中hadoop classpath两边是飘号
export HADOOP_CLASSPATH=`hadoop classpath`
保存退出!
然后
source /etc/profile
大功告成
博客指出Flink没有Hadoop依赖会出现问题,并给出两种解决方式。一是找hadoop - uber的包放在Flink的lib目录下,二是添加环境变量,在指定文件添加相关内容,保存退出即可解决。
如果发生这个问题就是因为flink没有hadoop的依赖,
一共有两种解决方式
1、自己去网上找hadoop-uber的包放在flink的lib目录下
2、添加环境变量
sudo vim /etc/profile.d/env.sh
运行后向这个文件中添加

其中hadoop classpath两边是飘号
export HADOOP_CLASSPATH=`hadoop classpath`
保存退出!
然后
source /etc/profile
大功告成
9992
6700
6209
1万+
6792
1万+
2384

被折叠的 条评论
为什么被折叠?