@创建于:2022.06.13
@修改于:2022.06.13
尝试用本地pySpark读取远程的hive数据时候出现的问题。
本地需要安装配置hadoop的环境变量,把hadoop.dll放到system32中。
在尝试使用本地PySpark读取远程Hive数据时遇到了配置问题,错误提示为HADOOP_HOME和hadoop.home.dir未设置。为解决此问题,需要在本地环境变量中配置HADOOP_HOME,并将hadoop.dll文件放入system32目录下。
@创建于:2022.06.13
@修改于:2022.06.13
尝试用本地pySpark读取远程的hive数据时候出现的问题。
本地需要安装配置hadoop的环境变量,把hadoop.dll放到system32中。
2万+
1617
3195
7432
2926
4316

被折叠的 条评论
为什么被折叠?