1,错误关键代码
print(','.join(rdd))
校正后
print(','.join(rdd.collect()))
2,完整代码如下
from pyspark import SparkConf, SparkContext
conf = SparkConf().setMaster("local").setAppName("程序15 App")
sc = SparkContext(conf=conf)
list = ["Hadoop", "Spark", "Hive"]
rdd = sc.parallelize(list)
print(rdd.count()) # 行动操作,触发一次真正从头到尾的计算
print(','.join(rdd.collect())) # 行动操作,触发一次真正从头到尾的计算
3,错误原因:待定