java.lang.ClassNotFoundException: org.apache.hadoop.mapred.JobConf
最新推荐文章于 2024-12-04 17:31:10 发布
本文探讨了在Spark local模式下调试代码时遇到的Hadoop版本不一致问题,具体表现为hadoop-mapreduce-client-core、hadoop-common等模块版本差异导致的运行时错误。文章提供了两种解决方案:一是更换Hadoop版本,二是采用CDH(Cloudera Distribution Including Hadoop),以确保Spark与Hadoop组件之间的兼容性。
5375

被折叠的 条评论
为什么被折叠?



