
kafka
丹江怒潮
这个作者很懒,什么都没留下…
展开
-
KAFKA 编程
kafka版本:2.10-0.10.0.1API jar包:kafka-clients-0.10.0.1.jar背景:kafka集群从2.10-0.8.2.1升级到2.10-0.10.0.1后,发现原先使用的写日志到Kafka的API全部被标记成了deprecated的状态kafka_2.10-0.10.0.1.jarkafka.javaapi.producer.Producer转载 2017-05-13 21:55:44 · 518 阅读 · 0 评论 -
跟我学Kafka之NIO通信机制
很久没有做技术方面的分享了,今天闲来有空写一篇关于Kafka通信方面的文章与大家共同学习。一、Kafka通信机制的整体结构74EACA88-8B9D-45F8-B7BF-202D658205A9.png这个图采用的就是我们之前提到的SEDA多线程模型,链接如下:http://www.jianshu.com/p/e184fdc0ade41、对于broker来说,客户端转载 2017-08-18 10:46:44 · 277 阅读 · 0 评论 -
sparkstreaming直连kafka源码分析(基于spark1.6)
val data = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder]( ssc, kafkaParams, TopicsSet)会创建一个DirectKafkaInputDStream并加入到ssc自身维护的流程图变量ssc.graph.addInputStream(this)然后进行d原创 2017-06-24 10:12:30 · 1113 阅读 · 0 评论 -
cdh集成kafka,spark2
参考文章:http://blog.cloudera.com/blog/2016/09/apache-spark-2-0-beta-now-available-for-cdh/https://www.cloudera.com/documentation/spark2/latest/topics/spark2_installing.html在CDH官网中关于Ka转载 2017-07-13 14:12:09 · 1671 阅读 · 0 评论 -
kafka2:性能优化
1.partition数量配置partition数量由topic的并发决定,并发少则1个分区就可以,并发越高,分区数越多,可以提高吞吐量。创建topic时指定topic数量bin/kafka-topics.sh --create --zookeeper 10.25.58.35:2181 --replication-factor 3 --partitions 3 --topic te转载 2017-08-18 14:39:16 · 646 阅读 · 0 评论 -
Kafka 0.10 新特性介绍
Kafka Streams Kafka Streams在几个月前由Confluent Platform首先在其平台的技术预览中行提出,目前已经在Apache Kafka 0.10.0.0上可用了。Kafka Streams其实是一套类库,它使得Apache Kafka可以拥有流处理的能力。Kafka Streams包含了一整套描述常见流操作的高级语言API(比如 joining,转载 2017-08-17 10:56:15 · 646 阅读 · 0 评论 -
Kafka 0.9 新特性介绍
一、安全特性在0.9之前,Kafka安全方面的考虑几乎为0,在进行外网传输时,只好通过Linux的防火墙、或其他网络安全方面进行配置。相信这一点,让很多用户在考虑使用Kafka进行外网消息交互时有些担心。在安全方面,主要有以下方面设计:客户端连接borker使用SSL或SASL进行验证borker连接ZooKeeper进行权限管理数据传输进行加密(需要考虑性能方面的影响)客户端读、转载 2017-08-17 10:54:19 · 377 阅读 · 0 评论 -
kafka创建话题遇到的错误
确定Kafka安装和启动正确,ZooKeeper可以查到所有的Brokers,但执行:kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 1 --topic my-replicated-topic遇到如下错误:java.net.SocketException: N转载 2017-07-17 14:13:26 · 8854 阅读 · 0 评论 -
Spark+Kafka的Direct方式将偏移量发送到Zookeeper实现
Apache Spark 1.3.0引入了Direct API,利用Kafka的低层次API从Kafka集群中读取数据,并且在Spark Streaming系统里面维护偏移量相关的信息,并且通过这种方式去实现零数据丢失(zero data loss)相比使用基于Receiver的方法要高效。但是因为是Spark Streaming系统自己维护Kafka的读偏移量,而Spark Stre转载 2017-06-22 16:51:12 · 984 阅读 · 0 评论 -
structured streaming ——wordcounts_kafka
// Subscribe to 1 topic 从数据库读取偏移量。todoval words = spark .readStream .format("kafka") .option("kafka.bootstrap.servers", "host1:port1,host2:port2") .option("subscribe", "topic1") .load()转载 2017-06-20 20:06:23 · 291 阅读 · 0 评论 -
kafka0.8和1.0整合sparkstreaming
Spark Streaming + Kafka Integration GuideApache Kafka is publish-subscribe messaging rethought as a distributed, partitioned, replicated commit log service. Please read the Kafka documentation t转载 2017-06-17 23:04:05 · 758 阅读 · 0 评论 -
kafka集群安装
3、在linux中使用wget命令下载安装包 wget http://mirrors.hust.edu.cn/apache/kafka/0.8.2.2/kafka_2.11-0.8.2.2.tgz 4、解压文件并创建软连接tar -zxvf /export/software/kafka_2.11-0.8.2.原创 2017-05-19 19:33:14 · 387 阅读 · 0 评论 -
Kafka+Spark Streaming+Redis实时计算整合实践
基于Spark通用计算平台,可以很好地扩展各种计算类型的应用,尤其是Spark提供了内建的计算库支持,像Spark Streaming、Spark SQL、MLlib、GraphX,这些内建库都提供了高级抽象,可以用非常简洁的代码实现复杂的计算逻辑、这也得益于Scala编程语言的简洁性。这里,我们基于1.3.0版本的Spark搭建了计算平台,实现基于Spark Streaming的实时计算。我转载 2017-05-15 20:32:56 · 883 阅读 · 0 评论 -
kafka0.90新版消费者API介绍及使用
翻译自: https://www.confluent.io/blog/tutorial-getting-started-with-the-new-apache-kafka-0-9-consumer-client/kafka最初时开发时, 所带的producer和consumer client都是Scala所写. 我们逐渐发现这些API具有一些限制. high-level的api支持co翻译 2017-05-13 23:47:31 · 2485 阅读 · 0 评论 -
kafka+sparkstreaming 获取每个分区的偏移范围
package com.kafka.wordcountimport java.utilimport kafka.serializer.StringDecoderimport org.apache.spark.storage.StorageLevelimport org.apache.spark.{HashPartitioner, SparkConf, TaskContext}imp原创 2017-11-12 12:17:06 · 895 阅读 · 0 评论