spark认知理解(一)RDD与DAG

本文介绍了Spark的基本概念,重点解析了RDD的特性、分片、Partitioner,以及Spark中的宽窄依赖和stage划分。通过理解RDD与DAG的关系,帮助读者深入理解Spark的计算模型和执行优化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

1. spark介绍

2. RDD理解

2.1 RDD概念

2.2 Partition分片

2.3 Partitioner

3. 宽窄依赖

4. stage划分

4. spark与DAG

注脚


1. spark介绍

spark是基于内存计算的大数据并行计算框架。
特性:DAG执行引擎,可分布式,基于内存计算。

2. RDD理解

RDD:是弹性分布式数据集(Resilient Distributed Dataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享内存模型。

2.1 RDD概念

RDD是spark中最基本的数据单元,它代表一个不可变、可分区、内部元素可并行计算的抽象数据集合。RDD由一组分片(Partition)组成。

2.2 Partition分片

Partition(分片):是RDD的基本组成单位,也是spark中参与计算的最基本的单元。正是由于RDD的分片属性,才保证了spark的可分布式计算能力。

2.3 Partitioner

当前Spark中实现了两种类型的分片函数,一个是基于哈希的HashPartitioner,另外一个是基于范围的RangePartitioner。分片是nosql中的概念,就是对大数据集依据key进行切分并形成小块,然后进行存储。

3. 宽窄依赖

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值