环境:spark1.6,window10,Hadoop2.6
报错:rdd.saveastextFile(outPath)
原因:
.在spark bin目录下没有winutils.exe问价
本地dill问价有损坏
c/windows/system32中没有hadoop.dll文件
解决:查看文件夹,没有文件去下载并放到文件夹下;如果有文件尝试修复本地环境,下载DirectX Repair然后解压找到DirectX Repair.exe直接修复,重启后写出回复正常。
---------------------
作者:向阳飞行
来源:优快云
原文:https://blog.youkuaiyun.com/bigdataprimary/article/details/84956439
版权声明:本文为博主原创文章,转载请附上博文链接!
spark写 本地文件报错
最新推荐文章于 2024-04-27 16:32:38 发布
本文详细介绍了在Spark1.6环境下,于Windows10系统中遇到的常见错误及其解决方案,特别是关于rdd.saveastextFile(outPath)报错的情况。主要分析了winutils.exe缺失、本地dill文件损坏及hadoop.dll文件缺失等问题,并提供了具体的解决步骤,包括下载所需文件、修复本地环境等。
2682

被折叠的 条评论
为什么被折叠?



