Spark从零开始手记 弹性分布式数据集(RDDs:Resilent distributed datasets)

本文深入探讨Spark作为新一代大数据计算引擎的核心概念与操作,包括RDD的创建与转换、Transformations和Actions详解,以及KeyValue对RDDs的高效处理技巧。

概述:Spark是新一代大数据计算引擎,具有内存计算的特性,计算速度比hadoop更快。本文涉及Spark基础概念RDD,KeyValueRDD以及RDD的常用Transformation和Action操作等内容,更多内容请参考慕课网Terby老师的《Spark从零开始》

1、一个RDD是一个不可改变的分布式集合对象

在spark中,所有的计算都是通过RDDs的创建、转换操作完成的

一个RDD内部由许多分片(partitions)组成

#分片 
var rdd=sc.parallelize(Array(1,2,3,4),4)
rdd .count()
rdd.foreach(println)
​
#创建变量还可以使用val 但该变量值不可修改
val lines=sc.textFile("/root/data/statistics.txt")
lines=sc.textFile("/root/data/statistics.txt) #error

2、scala匿名函数和类型推断

#查找包含指定单词的行
var lines=sc.textFile("/root/data/statistics.txt")
#line 不需要指定类型(String),scala会自动推断出来,代表每一行,=>表示匿名函数
var lines2=lines.filter(line=>line.contains("enthusiasm"))
#打印输出
lines.foreach(print)

3、Transformations

(1) map()接收函数,将函数应用到RDD的每一个元素,返回新的RDD

var lines=sc.parallelize(Array("Hello","spark","hello","world","Hello","!"),4)
lines.foreach(println)
#map
var lines2=lines.map(word=>(word,1)).foreach(println)
lines2.foreach(println)

(2) filter()接收函数,返回只包含满足filter()函数的元素的新RDD

#接(1)
var lines3=lines.filter(word=>word.contains("Hello"))
lines3.foreach(println)

(3) flatMap() 对每个输入元素,输出多个输出元素,flat表示压缩,将RDD中元素压缩后返回一个新的RDD

val inputs=sc.textFile("/root/data/statistics.txt")
inputs.foreach(println)
#压缩
val inputs=sc.textFile("/root/data/statistics.txt")
var lines=inputs.flatMap(line=>line.split(" "))
lines.foreach(print)
# 链式写法: sc.textFile("/root/data/statistics.txt").flatMap(line=>line.split(" ")).foreach(print)
​
#使用map
lines.map(word=>(word,1)).foreach(println)

(4) 集合运算

val rdd1=sc.parallelize(Array("China","American","Russia","Canada","Russia","Japan","Koran"))
​
val rdd2=sc.parallelize(Array("China","American","England","Canada","Japan","French","England"))
#去重
val rdd1_distinct=rdd1.distinct()
rdd1_distinct.foreach(println)
​
val rdd2_distinct=rdd2.distinct()
rdd2_distinct.foreach(println)
​
#并集
val rdd_union=rdd1.union(rdd2)
rdd_union.foreach(println)
​
#交集
val rdd_inter=rdd1.intersection(rdd2)
rdd_inter.foreach(println)
​
#差集
val rdd_sub=rdd1.subtract(rdd2).foreach(println)

4、Actions

(1) 常见Actions

  • reduce() 接收一个函数,作用在RDD两个类型相同的元素上,返回新元素,可以实现RDD中元素的累加、计数和其他类型的聚合操作
val rdd=sc.parallelize(Array(1,4,6,5,3,2,1,4,2))
#遍历数组
rdd.collect()
rdd.take(2)
#从大到小排序
rdd.top(10)
#求数组总和
rdd.reduce((x,y)=>x+y)
#打印输出
rdd.foreach(println)
  • collect() 遍历整个RDD,向Driver program返回RDD的内容

需要单机内存能够容纳下(因为数据要拷贝给Driver,测试使用)

大数据时,使用savaAsTextFile() action等

  • take(n) 返回RDD的n个元素(同时尝试访问最少的partitions),结果是无序的,测试时使用
  • top() 排序(根据RDD中数据的比较器,可以自定义)
  • foreach() 计算RDD中的每个元素,但不返回到本地,可配合print/println打印输出

RDDs的特性

  • 血统关系图

指Spark维护的RDDs之间的依赖关系,Spark使用血统关系来计算每个RDD的需求和恢复丢失的数据

  • 延迟加载

Spark第一次使用action操作时才对RDDs进行计算有助于减少大数据处理中的数据传输

  • RDD.persist()

默认每次在RDDs上进行action操作时,Spark都重新计算Rdds,使用RDD.persist()可以重复利用RDD

unpersist()方法可以从缓存中移除RDD

RDD.persist() 中可以传入级别作为参数,含义分别如下

5、KeyValue对RDDs的创建与操作

(1) 创建KeyValue对RDDs,使用map()函数,返回key/value对

eg:RDD包含多行数据,将每行数据的第一个单词作为key

val rdd=sc.textFile("/root/data/statistics.txt")
val rdd2=rdd.map(line=>(line.split(" ")(0),line))
rdd2.foreach(println)
​
#数组元素为key/value
val rdd=sc.parallelize(Array((1,2),(3,4),(3,9),(1,3),(6,6)))
rdd.foreach(println)
#reduceByKey的使用(key相同,值相加)
val rdd2=rdd.reduceByKey((x,y)=>x+y)
rdd2.foreach(println)

#groupByKey()无须参数
val rdd3=rdd.groupByKey()
rdd3.foreach(println)

rdd3.keys.foreach(println)
rdd3.values.foreach(println)
rdd3.sortBykey.foreach(println)

(2) combineByKey()

(createCombiner,mergeValue,mergeCombiners,partitioner)

是最常用的基于key的聚合函数,返回值可以与输入类型不一样

遍历partition中的元素,根据元素key是否已存在调用不同函数

  • 新元素,使用createCombiner()
  • 已存在,使用mergeValue()
  • 合计每个partition的结果时,使用mergeCombiners()

eg:求平均值

val scores=sc.parallelize(Array(("Jim",88.0),("Jim",82.0),("Jim",80.0),("Bob",92.0),("Bob",86.0),("Bob",90.0)))
scores.foreach(println)
#求分数总和
val score2=scores.combineByKey(score=>(1,score),(c1:(Int,Double),newScore)=>(c1._1+1,c1._2+newScore),(c1:(Int,Double),c2:(Int,Double))=>(c1._1+c2._1,c1._2+c2._2))
score2.foreach(println)
#求平均值
val avg=score2.map{case(name,(num,score))=>(name,score/num)}
age.foreach(println)
​

【语音分离】基于平均谐波结构建模的无监督单声道音乐声源分离(Matlab代码实现)内容概要:本文介绍了基于平均谐波结构建模的无监督单声道音乐声源分离方法,并提供了相应的Matlab代码实现。该方法通过对音乐信号中的谐波结构进行建模,利用音源间的频率特征差异,实现对混合音频中不同乐器或人声成分的有效分离。整个过程无需标注数据,属于无监督学习范畴,适用于单通道录音场景下的语音与音乐分离任务。文中强调了算法的可复现性,并附带完整的仿真资源链接,便于读者学习与验证。; 适合人群:具备一定信号处理基础和Matlab编程能力的高校学生、科研人员及从事音频处理、语音识别等相关领域的工程师;尤其适合希望深入理解声源分离原理并进行算法仿真实践的研究者。; 使用场景及目标:①用于音乐音频中人声与伴奏的分离,或不同乐器之间的分离;②支持无监督条件下的语音处理研究,推动盲源分离技术的发展;③作为学术论文复现、课程项目开发或科研原型验证的技术参考。; 阅读建议:建议读者结合提供的Matlab代码与网盘资料同步运行调试,重点关注谐波建模与频谱分解的实现细节,同时可扩展学习盲源分离中的其他方法如独立成分分析(ICA)或非负矩阵分解(NMF),以加深对音频信号分离机制的理解。
内容概要:本文系统介绍了新能源汽车领域智能底盘技术的发展背景、演进历程、核心技术架构及创新形态。文章指出智能底盘作为智能汽车的核心执行层,通过线控化(X-By-Wire)和域控化实现驱动、制动、转向、悬架的精准主动控制,支撑高阶智能驾驶落地。技术发展历经机械、机电混合到智能三个阶段,当前以线控转向、线控制动、域控制器等为核心,并辅以传感器、车规级芯片、功能安全等配套技术。文中还重点探讨了“智能滑板底盘”这一创新形态,强调其高度集成化、模块化优势及其在成本、灵活性、空间利用等方面的潜力。最后通过“2025智能底盘先锋计划”的实车测试案例,展示了智能底盘在真实场景中的安全与性能表现,推动技术从研发走向市场验证。; 适合人群:汽车电子工程师、智能汽车研发人员、新能源汽车领域技术人员及对智能底盘技术感兴趣的从业者;具备一定汽车工程或控制系统基础知识的专业人士。; 使用场景及目标:①深入了解智能底盘的技术演进路径与系统架构;②掌握线控技术、域控制器、滑板底盘等关键技术原理与应用场景;③为智能汽车底盘研发、系统集成与技术创新提供理论支持与实践参考。; 阅读建议:建议结合实际车型和技术标准进行延伸学习,关注政策导向与行业测试动态,注重理论与实车验证相结合,全面理解智能底盘从技术构想到商业化落地的全过程。
【顶级EI复现】计及连锁故障传播路径的电力系统 N-k 多阶段双层优化及故障场景筛选模型(Matlab代码实现)内容概要:本文介绍了名为《【顶级EI复现】计及连锁故障传播路径的电力系统 N-k 多阶段双层优化及故障场景筛选模型(Matlab代码实现)》的技术资源,重点围绕电力系统中连锁故障的传播路径展开研究,提出了一种N-k多阶段双层优化模型,并结合故障场景筛选方法,用于提升电力系统在复杂故障条件下的安全性与鲁棒性。该模型通过Matlab代码实现,具备较强的工程应用价值和学术参考意义,适用于电力系统风险评估、脆弱性分析及预防控制策略设计等场景。文中还列举了大量相关的科研技术支持方向,涵盖智能优化算法、机器学习、路径规划、信号处理、电力系统管理等多个领域,展示了广泛的仿真与复现能力。; 适合人群:具备电力系统、自动化、电气工程等相关背景,熟悉Matlab编程,有一定科研基础的研究生、高校教师及工程技术人员。; 使用场景及目标:①用于电力系统连锁故障建模与风险评估研究;②支撑高水平论文(如EI/SCI)的模型复现与算法验证;③为电网安全分析、故障传播防控提供优化决策工具;④结合YALMIP等工具进行数学规划求解,提升科研效率。; 阅读建议:建议读者结合提供的网盘资源,下载完整代码与案例进行实践操作,重点关注双层优化结构与场景筛选逻辑的设计思路,同时可参考文档中提及的其他复现案例拓展研究视野。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值