AttributeError: ‘str‘ object has no attribute ‘leftOuterJoin‘

本文介绍了在Python中使用Spark进行数据处理时,如何使用join()函数以及一个示例代码。同时提到了可能的错误点,指出&左外连接错误,并讨论了collect()方法的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、关键错误

print(','.leftOuterJoin(rdd.collect()))

2、校正错误

print(','.join(rdd.collect()))

3、完整代码

# 测试join()如何使用以效果
from pyspark import SparkConf, SparkContext

conf = SparkConf().setMaster("local").setAppName("测试8 App")
sc = SparkContext(conf=conf)
list = ["Hadoop", "Spark", "Hive"]
rdd = sc.parallelize(list)
print(rdd.count())
print(rdd.collect())
print(','.join(rdd.collect()))

4、报错原因:待定

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值