pyspark 语法总结

这篇博客详细总结了PySpark的语法,包括导入、链接Hive、基础及高阶RDD操作,如action和pair RDD操作,以及如何计算平均值、优化join速度。此外,还介绍了读取文件(如text、json、csv)的方法,累加器和广播变量的使用,以及数值RDD操作和Spark SQL的应用,特别强调了schemaRDD在存储效率上的优势。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

导入pyspark 

# coding:utf-8
#使用pyspark
from pyspark import SparkConf, SparkContext
import pyspark
from pyspark import SparkContext as sc
from pyspark import SparkConf
conf=SparkConf().setAppName("miniProject").setMaster("local[*]")
sc=SparkContext.getOrCreate(conf)
lines = sc.textFile("data_sql.txt")

链接hive:

#链接hive
from pyspark.sql import HiveContext
hive_context = HiveContext(sc)
hive_context.sql('use default')
#读取josn
tweets = hive_context.jsonFile(json文件)
result = hive_context.sql('select * from table')

基础RDD操作:

line.map(func) #func可以是lambad,也可以是定义的函数

rdd.mapValues(func)

rdd.flatMapValues(func) #只针对值,不改变键

line.flatmap(func) #flatmap先对每个元素执行func,再重新变成一个数组,实际上就是执行完类似map的操作后打平,变成一个数组

line1.join(line2)# 保留line1中的key,把line1和line2中key相同的value放到一个元组里,[(key,(value1,value2),....]

leftOu
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值