
计算引擎
专注计算引擎
是女汉子不是女汉子
这个作者很懒,什么都没留下…
展开
-
Spark 官方文档——Configuration配置
Spark可以通过三种方式配置系统:通过SparkConf对象, 或者Java系统属性配置Spark的应用参数 通过每个节点上的conf/spark-env.sh脚本为每台机器配置环境变量 通过log4j.properties配置日志属性Spark属性Spark属性可以为每个应用分别进行配置,这些属性可以直接通过SparkConf设定,也可以通过set方法设定相关属性。下面展示了...原创 2019-11-25 15:12:09 · 456 阅读 · 0 评论 -
Spark简介与安装
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark拥有Hadoop MapReduce所具有的优点;但不同MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好 适用于数...原创 2019-11-25 13:59:43 · 209 阅读 · 0 评论 -
大数据计算引擎的发展已经到了第4代,知识你都掌握了吗?
Flink项目是大数据计算领域冉冉升起的一颗新星。大数据计算引擎的发展经历了几个过程,从第1代的MapReduce,到第2代基于有向无环图的Tez,第3代基于内存计算的Spark,再到第4代的Flink。因为Flink可以基于Hadoop进行开发和使用,所以Flink并不会取代Hadoop,而是和Hadoop紧密结合。Flink主要包括DataStream API、DataSet API、Ta...转载 2019-12-24 17:01:16 · 465 阅读 · 0 评论 -
大数据计算引擎分成了 4 代
新一代大数据处理引擎 Apache Flinkhttps://www.ibm.com/developerworks/cn/opensource/os-cn-apache-flink/大数据计算引擎的发展这几年大数据的飞速发展,出现了很多热门的开源社区,其中著名的有 Hadoop、Storm,以及后来的 Spark,他们都有着各自专注的应用场景。Spark 掀开了内存计算的先河,也以内存为赌注,...转载 2019-12-24 10:25:33 · 387 阅读 · 0 评论