
kafka
文章平均质量分 76
Scub
这个作者很懒,什么都没留下…
展开
-
Kafka配置参数
Kafka为broker,producer和consumer提供了很多的配置参数。 了解并理解这些配置参数对于我们使用kafka是非常重要的。 本文列出了一些重要的配置参数。 官方的文档 Configuration比较老了,很多参数有所变动, 有些名字也有所改变。我在整理的过程中根据0.8.2的代码也做了修正。 Boker配置参数 下表列出了Boker的重要的配置参数, 更多的配置请参转载 2016-01-23 01:56:36 · 882 阅读 · 0 评论 -
Kafka Consumer接口
转自:http://blog.youkuaiyun.com/strawbingo/article/details/45366061#t4 Kafka Consumer接口 http://www.cnblogs.com/fxjwind/p/3794255.html 对于kafka的consumer接口,提供两种版本, high-level 一种high-level版本,比较简单不用关心of转载 2015-12-24 00:16:05 · 880 阅读 · 2 评论 -
Kafka入门
转自:http://www.aboutyun.com/thread-12882-1-1.html 问题导读 1.Kafka独特设计在什么地方? 2.Kafka如何搭建及创建topic、发送消息、消费消息? 3.如何书写Kafka程序? 4.数据传输的事务定义有哪三种? 5.Kafka判断一个节点是否活着有哪两个条件? 6.producer是否直接将数据发送到broker的lead转载 2015-12-24 00:59:07 · 530 阅读 · 0 评论 -
flume断点续传
使用Flume做日志收集,flume+kafka做日志收集存储,后面接es存历史日志,storm用于实时分析。对于历史日志来说,尽可能做到不丢不重,实际经验内网环境kafka还是很稳定可靠的,丢日志主要发生在flume重启,所以针对flume进行改造,实现断点续传。主要环境及配置,jdk7,flume1.6版本,agent使用内存channel。自扩展source基于原生ExecSource改造,原创 2016-06-19 09:53:39 · 7677 阅读 · 0 评论 -
spark createDirectStream保存kafka offset(JAVA实现)
问题描述 最近使用Spark streaming处理kafka的数据,业务数据量比较大,就使用了KafkaUtils的createDirectStream()方式,此方法直接从kafka的broker的分区中读取数据,跳过了zookeeper,并且没有receiver,是spark的task直接对接kakfa topic partition,能保证消息恰好一次语意,但是此种方式因为没有经过z转载 2016-09-21 08:48:06 · 3944 阅读 · 2 评论