1、未加载到主类
这个问题有很多原因,我的原因是项目缺少.iml文件
删除.idea文件夹重新编译build
还有可能情况是项目的scala文件夹是否设置为source源
2、winutils.exe导致的报错
在window下本地运行spark需要系统中安装了hadoop,并且在hadoop/bin目录下有winutils.exe文件
3、\tmp\hive 没有写权限
这个因为本地运行spark项目用到了hive所以需要配置hive的默认数据目录\tmp\hive
winutils.exe chmod d:\tmp\hive
本文主要探讨了Spark项目中常见的三个问题:主类未加载、winutils.exe导致的错误以及 mphive写权限问题。提供了详细的解决方案,包括检查.iml文件、配置hive默认数据目录等,帮助开发者快速定位并解决问题。
635

被折叠的 条评论
为什么被折叠?



