查看spark历史日志
发现错误 查阅后发现是spark2.2.0的bug
在2.2.1修复
[root@hadoop01 logs]# cat spark-root-org.apache.spark.deploy.history.HistoryServer-1-hadoop01.out
ERROR FsHistoryProvider:
Exception encountered when attempting to load application log
hdfs://qf/sparklog/app-20191119094451-0001.inprogress
java.io.IOException:
Cannot obtain block length for LocatedBlock{BP-1096903312-192.168.37.111-1566979573281:blk_1073755517_14739; getBlockSize()=296; corrupt=false; offset=0; locs=[DatanodeInfoWithStorage[192.168.37.111:50010,DS-962d27b2-cce2-46d6-a157-2a3eb58120c1,DISK], DatanodeInfoWithStorage[192.168.37.113:50010,DS-9e4de73f-3ddd-40ba-bc2f-00eaf708e059,DISK], DatanodeInfoWithStorage[192.168.37.112:50010,DS-47657492-8942-4b28-9fb9-7f9b4aff9c79,DISK]]}



在查看Spark历史日志时遇到加载应用日志的问题,错误源于Spark 2.2.0版本的一个bug,在2.2.1版本中已修复。错误信息显示在尝试从HDFS加载日志时遇到了IOException,具体为无法获取块长度。
494

被折叠的 条评论
为什么被折叠?



