学习spark可以看学习路线网的云计算spark视频,spark讲解的很仔细,深入浅出,非常经典 ,新手入门都能学会spark,喜欢的同学可以下载这么课程!
课程介绍:
spark和hadoop的区别
Hadoop是大数据生态系统,是集成了文件存储,文件抽取,批量计算,资源管理等等,而spark设计初衷是实时并行计算,而目前spark可以作为计算引擎嵌入hive,同时解决了批量与实时计算的问题。
spark和hadoop哪个简单?
在企业中,hadoop和spark都会用的,spark出来时间较短,以前在hadoop平台上的应用还没有完全迁移过来。它们能够集成在YARN之上,在同一个集群上运行这两个框架。spark只是个计算框架,存储还是要依靠hadoop中的hdfs或hbase或其它文件系统。
spark教程目录:
001 本系列课程说明.exe002 What is Spark详细讲解(四大特性).exe
003 MapReduce与Spark异同点和优势比较.exe
004 实时在线答疑交流
005 回顾上次课内容和Spark 学习的基础
006 Spark 1.x编译的三种方式和如何使用Make方式编译(注意事项详解)
007 Spark运行Local模式讲解
008 课程实时在线答疑交流
009 Spark 1.x安装前的准备(安装HDFS)
010 安装部署Spark 1.x Standalone模式集群
011 运行Spark Shell进行测试以及对细节进行说明
012 使用Spark 编写大数据处理经典案例WordCount程序
013 深入讲解使用Spark编程WordCount程序
014 Spark RDD详解
015 实时在线答疑.exe
016 回顾总结前面内容及如何学习Spark
017 Spark Cluster与Application中的重要概念以及如何提交应用spark-submit
018 如何安装IDEA、安装Scala插件以及导入Spark 源码
019 如何使用IDEA创建Scala Projec