//whereis python3
sudo -u hdfs pyspark --conf "spark.pyspark.driver.python=/usr/bin/python3" --conf "spark.pyspark.python=/usr/bin/python3"
pyspark shell指定相应python版本
最新推荐文章于 2024-06-05 17:26:59 发布
本文详细指导如何在Spark集群中使用Python 3进行任务提交,并介绍如何配置spark.pyspark.driver.python和spark.pyspark.python,以及如何引入虚拟环境和依赖。
1303

被折叠的 条评论
为什么被折叠?



