Flink on Yarn 部署问题汇总
1. Yarn 上报错: Unsupported major.minor version 52.0 , jdk版本不支持

解决办法:把jdk从1.7升级到1.8。jdk1.8.0_11版本在运行Flink时,会出现莫名其妙的问题,墙裂建议更换成jdk1.8.0_191,jdk传送门:https://pan.baidu.com/s/1M4Xo9GwDgTAmnDJfcmMsJg 提取码:vrqa
2. 部署后,在yarn 上面一直显示RUNING 状态,终端报错:AskTimeoutException: Ask timed out on [Actor[akka://flink/user/dispatcher#1998075247]] after [10000 ms]
解决办法:
首先确认jdk版本为jdk1.8.0_191,或更高版本,
1)修改yarn-site.xml配置文件,把 '是否进行物理内存限制比较' 属性关闭
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
2)把 flink-1.7.0/conf/flink-conf.yaml 的 jobmanager 和 taskmanager 的堆内存加大(默认为1G,改为2G)
# The heap size for the JobManager JVM
jobmanager.heap.size: 2048m
# jobmanager.heap.size: 1024m
# The heap size for the TaskManager JVM
taskmanager.heap.size: 2048m
# taskmanager.heap.size: 1024m
3) 重新提交jar包,运行成功 ./bin/flink run -m yarn-cluster -yn 1 ./examples/batch/WordCount.jar

3. 启动直接失败,Yarn 界面任务状态是 FAILED,终端上日志显示 ,拒绝连接

但是能ping通过,可以排除是节点间网络通信的问题
解决方法:这个错报的莫名其妙,把 conf/flink-conf.yaml 的 jobmanager 和 taskmanager 的堆内存改大(默认为1G,改为2G),重新运行就成功。
# The heap size for the JobManager JVM
jobmanager.heap.size: 2048m
# jobmanager.heap.size: 1024m
# The heap size for the TaskManager JVM
taskmanager.heap.size: 2048m
# taskmanager.heap.size: 1024m
4. Name node is is safe mode,hdfs处理安全模式,只读不写(通常集群重启时,会自动开启),Flink启动时需要把元数据写到hdfs上

解决办法: hadoop dfsadmin -safemode leave 关闭安全模式(每个DataNode)
本文汇总了Flink在Yarn上部署时可能遇到的问题及解决方案,包括JDK版本不兼容、任务运行状态异常、启动失败和HDFS安全模式等。建议使用JDK1.8.0_191以上版本,并调整YARN和Flink配置以优化内存设置。
3210

被折叠的 条评论
为什么被折叠?



