😄 因为spark里用的就是RDD数据结构来存储数据,所以对数据处理离不开RDD的各种函数操作咯!这一节就跟着梁云大佬打卡下如何处理RDD。【下面章节有🔥的是用的比较多的函数】
文章目录
0、初始化pyspark环境与driver介绍
0.1、初始化
import findspark
findspark.init()
import pyspark
from pyspark import SparkContext, SparkConf
conf = SparkConf()
😄 因为spark里用的就是RDD数据结构来存储数据,所以对数据处理离不开RDD的各种函数操作咯!这一节就跟着梁云大佬打卡下如何处理RDD。【下面章节有🔥的是用的比较多的函数】
import findspark
findspark.init()
import pyspark
from pyspark import SparkContext, SparkConf
conf = SparkConf()