昨天已经完成了standalone的spark搭建,当然今天在实际使用python连接时,发现其实是有问题的。master和slave其实并没有成功连接,原因是启动slave时指定的master ip地址有误,需要通过netstat查看7077在哪个ip上侦听,不可直接写127.0.0.1
今天成功用python连接了昨天搭建的spark集群做简单计算
环境:
python3
pip3
安装:
pip3 install pyspark
代码:
cat test_connect_spark.py
from pyspark import SparkContext
logFile = "./test.txt"
# conect spark
sc = SparkContext(master="spark://192.168.1.20:7077", appName="Simple App")
logData = sc.textFile(logFile).cache()
# count lines include 'a'
numAs = logData.filter(lambda s: 'a' in s).count()
# count lines include 'b'
numBs = logData.filter(lambda s: 'b' in s).count()
print("Lines with a: %i, lines with b: %i" % (numAs, numBs))
运行:
# python3 test_connect_spark.py
2019

本文记录了在Python中连接到Standalone模式的Spark集群的过程,遇到的问题及解决方法。错误在于启动Slave时指定了错误的Master IP,正确做法是通过netstat找到Spark实际监听的IP。成功连接后,使用Python进行了简单的计算。环境包括Python3和pyspark,通过pip3安装pyspark。提供了Master的WEBUI链接和官方文档参考。
最低0.47元/天 解锁文章
895

被折叠的 条评论
为什么被折叠?



