SparkStreaming是Spark core API的一种拓展,它可以进行大规模的实时数据处理;
另外它可以从多个数据源获取的数据并且处理换后可以写入的文件系统或者过个数据库库中;
并且是使用SAPRK相关的算子,例如map,reduce,join,groupby和windows窗口处理数据;
SparkStreaming的原理,其中它一个batch的概念,允许接收到实时的数据之后,会将数据拆分成一个个的batch,比如每一秒流入额实时数据形成一个batch,然后将bantcht提交到spark RDD分布式数据集进行数据计算,数据的结果流也是一个个batch组成的,bath是spark rdd的最小计算单位了。
2887

被折叠的 条评论
为什么被折叠?



