Spark之RDD学习

弹性数据集RDDs

RDD 全称为 Resilient Distributed Datasets (弹性分布式数据集) , 是 Spark 最基本的数据抽象。代码中是一个抽象类,它代表一个不可变,可分区,里面元素可并行计算的集合。

  • 一个 RDD 由一个或者多个分区 (Partitions) 组成。对于 RDD 来说,每个分区会被一个计算任务所处理,用户可以在创建 RDD 时指定其分区个数,如果没有指定,则默认采用程序所分配到的 CPU 的核心数。
  • RDD 拥有一个用于计算分区的函数 compute
  • RDD 会保存彼此间的依赖关系,RDD 的每次转换都会生成一个新的依赖关系,这种 RDD 之间的依赖关系就像流水线一样。在部分分区数据丢失之后,可以通过这种依赖关系重新计算丢失的分区数据,而不是对 RDD 的所有分区进行重新计算
  • Key-Value 型 RDD 还拥有 Partitioner(分区器) , 用于决定数据被存储在哪个分区中,目前 Spark 中支持 HashPartitioner(安装哈希分区) 和 RangePartitioner(按照范围进行分区)

RDD 其实实现的思想也是 装饰者模式

227

spark 会优先计算数据存放在哪个 DataNode

228

**算子:**解决问题其实是将问题的初始状态,通过一系列的操作(Operate:算子)对问题进行转换,然后达到完成(解决) 状态

Spark 中的所有的 RDD 方法都称为算子,但是分为两大类:转换算子 & 行动算子

创建

创建方式有三种:

  • 从集合中创建 RDD
  • 从外部存储创建 RDD
  • 从其它 RDD 中创建 RDD
内容概要:本文围绕SecureCRT自动化脚本开发在毕业设计中的应用,系统介绍了如何利用SecureCRT的脚本功能(支持Python、VBScript等)提升计算机、网络工程等相关专业毕业设计的效率与质量。文章从关键概念入手,阐明了SecureCRT脚本的核心对象(如crt、Screen、Session)及其在解决多设备调试、重复操作、跨场景验证等毕业设计常见痛点中的价值。通过三个典型应用场景——网络设备配置一致性验证、嵌入式系统稳定性测试、云平台CLI兼容性测试,展示了脚本的实际赋能效果,并以Python实现的交换机端口安全配置验证脚本为例,深入解析了会话管理、屏幕同步、输出解析、异常处理和结果导出等关键技术细节。最后展望了低代码化、AI辅助调试和云边协同等未来发展趋势。; 适合人群:计算机、网络工程、物联网、云计算等相关专业,具备一定编程基础(尤其是Python)的本科或研究生毕业生,以及需要进行设备自动化操作的科研人员; 使用场景及目标:①实现批量网络设备配置的自动验证与报告生成;②长时间自动化采集嵌入式系统串口数据;③批量执行云平台CLI命令并分析兼容性差异;目标是提升毕业设计的操作效率、增强实验可复现性与数据严谨性; 阅读建议:建议读者结合自身毕业设计课题,参考文中代码案例进行本地实践,重点关注异常处理机制与正则表达式的适配,并注意敏感信息(如密码)的加密管理,同时可探索将脚本与外部工具(如Excel、数据库)集成以增强结果分析能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值