
kafka
文章平均质量分 81
jinfeiteng2008
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Apache kafka原理与特性(0.8V)
前言: kafka是一个轻量级的/分布式的/具备replication能力的日志采集组件,通常被集成到应用系统中,收集"用户行为日志"等,并可以使用各种消费终端(consumer)将消息转存到HDFS等其他结构化数据存储系统中.因为日志消息通常为文本数据,尺寸较小,且对实时性以及数据可靠性要求不严格,但是需要日志存储端具备较高的数据吞吐能力,这种"宽松"的设计要求,非常适合使用kafka. 一转载 2016-12-02 18:13:04 · 238 阅读 · 0 评论 -
Kafka Consumer的两种接口(高阶低阶)
Kafka Consumer接口http://www.cnblogs.com/fxjwind/p/3794255.html对于kafka的consumer接口,提供两种版本, high-level一种high-level版本,比较简单不用关心offset, 会自动的读zookeeper中该Consumer group的last offset 参考,https转载 2016-12-06 16:18:05 · 7931 阅读 · 0 评论 -
Spark-Streaming获取kafka数据的两种方式-Receiver与Direct的方式
原文地址:http://blog.youkuaiyun.com/wisgood/article/details/51815845Spark-Streaming获取kafka数据的两种方式-Receiver与Direct的方式,可以从代码中简单理解成Receiver方式是通过zookeeper来连接kafka队列,Direct方式是直接连接到kafka的节点上获取数据了。一、基于Receiver转载 2016-12-06 17:02:46 · 395 阅读 · 0 评论 -
Spark Streaming 中使用kafka低级api+zookeeper 保存 offset 并重用 以及 相关代码整合
转载自http://www.klion26.com/spark-streaming-save-offset-to-zookeeper.htmlhttp://www.klion26.com/spark-streaming-saving-offset-in-zookeeper-2.html在 Spark Streaming 中消费 Kafka 数据的时候,有两种方式分别转载 2016-12-06 17:04:17 · 2390 阅读 · 1 评论 -
kafka producer
原文链接:http://blog.youkuaiyun.com/liuzhenfeng/article/details/50688842Kafka Producer 工作流程消息发送流程Kafka Producer 发送消息的两种方式:同步发送、异步发送。同步发送的流程图异步发送流程图发送流程说明(以异步发送为例):客户端创建Produc转载 2017-01-02 18:12:08 · 586 阅读 · 0 评论 -
Kafka的Log存储原理
转自:http://tec.5lulu.com/detail/105djn2i536s98s6a.html引言Kafka中的Message是以topic为基本单位组织的,不同的topic之间是相互独立的。每个topic又可以分成几个不同的partition(每个topic有几个partition是在创建topic时指定的),每个partition存储一部分Message转载 2016-12-27 22:46:32 · 394 阅读 · 0 评论