开始spark之旅啦~~~
在开始之前,我们要先搞清楚,什么是spark,我们为什么要学spark,有什么特点,然后整体了解整体spark框架模块。
好了,我们开始吧!
先给出官方地址:spark官网,学习资料很详细,对于学习者很友好
Apache Spark官方地址
1. 什么是spark
官方定义:
Apache Spark是用于大规模数据(large-scala data)处理的统一(unified)分析引擎。

Spark 最早源于一篇论文 Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing,该论文是由加州大学柏克莱分校的 Matei Zaharia 等 人发表的。论文中提出了一种弹性分布式数据集(即 RDD)的概念,原文开头对其的解释是:
本文介绍了Apache Spark的基本概念、速度优势、易用性和通用性,并探讨了Spark与Hadoop的区别,以及Spark的四大特点。Spark作为大数据处理引擎,提供了Spark Core、SQL、Streaming、MLlib和GraphX等多个模块,支持多种运行方式和数据源。
订阅专栏 解锁全文
834

被折叠的 条评论
为什么被折叠?



