
spark streaming
rolin-刘瑞
技术GEEK
展开
-
spark streaming的NetworkWordCount实例理解
/** Licensed to the Apache Software Foundation (ASF) under one or more* contributor license agreements. See the NOTICE file distributed with* this work for additional information regarding copyright o原创 2016-07-12 22:11:31 · 7466 阅读 · 0 评论 -
storm与spark streaming反压机制
因特殊业务场景,如大促、秒杀活动与突发热点事情等业务流量在短时间内剧增,形成巨大的流量毛刺,数据流入的速度远高于数据处理的速度,对流处理系统构成巨大的负载压力,如果不能正确处理,可能导致集群资源耗尽最终集群崩溃,因此有效的反压机制(backpressure)对保障流处理系统的稳定至关重要。Storm和Spark Streaming都提供了反压机制,实现各不相同对于开启了acke转载 2017-12-11 15:38:44 · 6290 阅读 · 0 评论 -
Spark定制班第4课:Spark Streaming的Exactly-One的事务处理和不重复输出彻底掌握
本期内容1 Exactly Once2 输出不重复1 Exactly Once 事务: 银行转帐为例,A用户转笔账给B用户,如果B用户没收到账,或者收到多笔账,都是破坏事务的一致性。事务处理就是,能够处理且只会处理一次,即A只转一次,B只收一次。 从事务视角解密SparkStreaming架构: S转载 2017-03-30 18:17:17 · 6260 阅读 · 0 评论 -
Spark定制班第3课:通过案例对SparkStreaming 透彻理解三板斧之三:解密SparkStreaming运行机制和架构进阶之Job和容错
本期内容1 Spark Streaming Job 架构和运行机制2 Spark Streaming Job 容错架构和运行机制1 Spark Streaming Job 架构和运行机制 理解Spark Streaming的Job的整个架构和运行机制对于精通Spark Streaming是至关重要的。 一 首先我们运行以下的程序,然后通过转载 2017-03-30 15:46:25 · 6291 阅读 · 0 评论 -
Spark定制班第2课:通过案例对Spark Streaming透彻理解三板斧之二:解密Spark Streaming运行机制和架构
本期内容:1 解密Spark Streaming运行机制2 解密Spark Streaming架构1 解密Spark Streaming运行机制 我们看看上节课仍没有停下来的Spark Streaming程序运行留下的信息。 这个程序仍然在不断地循环运行。即使没有接收到新数据,日志中也不断循环显示着JobScheduler、B转载 2017-03-30 15:20:15 · 6307 阅读 · 0 评论 -
Spark定制班第1课:通过案例对Spark Streaming透彻理解三板斧之一:解密Spark Streaming另类实验及Spark Streaming本质解析
从今天起,我们踏上了新的Spark学习旅途。我们的目标是要像Spark官方机构那样有能力去定制Spark。 我们最开始将从Spark Streaming入手。 为何从Spark Streaming切入Spark定制?Spark的子框架已有若干,为何选择Spark Streaming?让我们细细道来。 Spark最开始只有Spark Cor转载 2017-03-30 14:59:22 · 6728 阅读 · 0 评论 -
Spark-Streaming与Spark-Sql整合实现实时股票排行---通过kafka列队数据
Spark-Streaming与Spark-Sql整合实现实时股票排行---通过kafka列队数据,前端数据通过 kafka队列传递,外层还有flume的实时收集。1、mvn构建工程,指定好依赖的库,这里用的是spark1.4.1[html] view plain copyproject xmlns="http://mav转载 2017-03-18 23:45:00 · 6676 阅读 · 0 评论 -
spark streaming整合sparksql
在streaming中使用sparksql对apache服务器日志进行统计package youling.studio.streamingimport org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkContext, SparkConf}import org.apache.spark.streaming.{Str原创 2016-07-13 18:48:25 · 8517 阅读 · 1 评论 -
spark streaming 读取网络数据
package youling.studio.streamingimport org.apache.spark.streaming.{Seconds,StreamingContext}import StreamingContext._import org.apache.spark._import org.apache.spark.SparkContext._import org.apa原创 2016-07-13 10:50:19 · 6948 阅读 · 0 评论 -
spark反压机制详解
1、为什么引入Backpressure 默认情况下,Spark Streaming通过Receiver以生产者生产数据的速率接收数据,计算过程中会出现batch processing time > batch interval的情况,其中batch processing time 为实际计算一个批次花费时间, batch interval为Stream转载 2017-12-11 15:40:34 · 11738 阅读 · 0 评论