- 原因:spark是依赖hadoop的,需要你的本地装hadoop,且bin目录下需要winutils.exe和hadoop.dll两个文件
- 装好hadoop,配置环境变量
- 从网上下载winutils.exe和hadoop.dll两个文件放入hadoop的bin目录
- bin目录下打开cmd运行winutils.exe chmod 777 E:\tmp\hive给报错的hive目录添加执行权限
- 重启idea,记得所有idea界面都要关闭
执行spark程序出现(null) entry in command string: null ls -F E:\tmp\hive
最新推荐文章于 2024-07-06 02:09:50 发布