Anaconda3的python3环境下使用pyspark报错问题解决
问题描述
系统默认安装是python2,安装的hadoop相关的python可执行脚本也是python2版本的。
在这种情况下,直接运行pyspark可以正常进入shell。
但如果anaconda3的多环境使用了python3,直接运行pyspark会报错:
File "/usr/bin/hdp-select" ...
解决办法
修改以下两个文件的运行环境,
/etc/hadoop/conf/topology_script.py
/usr/bin/hdp-select
即vi,将第一行代码修改为:/usr/bin/python (这个是默认的python2的执行文件)。
再运行pyspark。

博客主要解决Anaconda3的Python3环境下使用pyspark报错问题。系统默认安装Python2,hadoop相关脚本也是Python2版本,直接运行pyspark正常,但在Anaconda3多环境用Python3时会报错。解决办法是修改两个文件运行环境,将第一行代码改为默认Python2执行文件后再运行。
5676

被折叠的 条评论
为什么被折叠?



