hive查询时,报错Error: org.apache.hadoop.mapreduce.task.reduce.Shuffle$ShuffleError: error in shuffle in fetcher#2
Hive Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
系统设置有关,文件较大,无法分配大内存
通过调整集群内存大小解决问题。
Hive Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.
最新推荐文章于 2024-04-26 17:27:15 发布
本文介绍了解决Hive查询过程中出现的shuffle错误的方法。当文件过大导致内存分配不足时,可通过调整集群内存大小来解决此问题。
1005

被折叠的 条评论
为什么被折叠?



