Kafka 安装和测试

1. 简介  

kafka (官网地址: http://kafka.apache.org )是一款分布式消息发布和订阅的系统,具有高性能和高吞吐率。 

 

i. 消息的发布(publish)称作producer,消息的订阅(subscribe)称作consumer,中间的存储阵列称作broker。

ii. 多个broker协同合作,producer、consumer和broker三者之间通过zookeeper来协调请求和转发。 

iii. producer产生和推送(push)数据到broker,consumer从broker拉取(pull)数据并进行处理。 

iv. broker端不维护数据的消费状态,提升了性能。 

v. 直接使用磁盘进行存储,线性读写,速度快:避免了数据在JVM内存和系统内存之间的复制,减少耗性能的创建对象和垃圾回收。 

vi. Kafka使用scala编写,可以运行在JVM上。 

2. 安装:  

a. 首先安装JRE/JDK 

Linux安装JDK  

b. 下载kafka 

进入下载页面: http://kafka.apache.org/downloads.html  

选择Binary downloads下载 (Source download需要编译才能使用) 

也可以直接在linux终端下载: 
Shell代码   收藏代码
  1. wget -q http://apache.fayea.com/apache-mirror/kafka/0.8.1/kafka_2.8.0-0.8.1.tgz  


c. 解压 
Shell代码   收藏代码
  1. tar -xzvf kafka_2.8.0-0.8.1.tgz  
  2. rm kafka_2.8.0-0.8.1.tgz  
  3. cd kafka_2.8.0-0.8.1  


目录: 


/bin 启动和停止命令等。 
/config 配置文件 
/libs 类库 

d. 修改配置 
Kafka默认开启JVM压缩指针,但只是在64位的HotSpot VM受支持,如果安装了32位的HotSpot VM,需要修改 /bin/kafka-run-class.sh 文件 
Shell代码   收藏代码
  1. vi bin/kafka-run-class.sh  


找到如下行: 
Sh代码   收藏代码
  1. KAFKA_JVM_PERFORMANCE_OPTS="-server -XX:+UseCompressedOops -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:+CMSClassUnloadingEnabled -XX:+CMSScavengeBeforeRemark -XX:+DisableExplicitGC -Djava.awt.headless=true"  

去除 -XX:+UseCompressedOops 参数 

3. 启动和停止  

启动Zookeeper server: 
Shell代码   收藏代码
  1. bin/zookeeper-server-start.sh config/zookeeper.properties &  

&是为了能退出命令行 

启动Kafka server: 
Shell代码   收藏代码
  1. bin/kafka-server-start.sh config/server.properties &  


停止Kafka server 
Shell代码   收藏代码
  1. bin/kafka-server-stop.sh  


停止Zookeeper server: 
Shell代码   收藏代码
  1. bin/zookeeper-server-stop.sh  


4. 单机连通性测试  

运行producer: 
Shell代码   收藏代码
  1. bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test  

早版本的Kafka,--broker-list localhost:9092需改为--zookeeper localhost:2181 

运行consumer: 
Shell代码   收藏代码
  1. bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning  

在producer端输入字符串并回车,查看consumer端是否显示。 

5. 分布式连通性测试  

Zookeeper Server, Kafka Server, Producer都放在服务器server1上,ip地址为192.168.1.10 
Consumer放在服务器server2上,ip地址为192.168.1.12。 

分别运行server1的producer和server2的consumer, 
Shell代码   收藏代码
  1. bin/kafka-console-producer.sh --broker-list 192.168.1.10:9092 --topic test  


Shell代码   收藏代码
  1. bin/kafka-console-consumer.sh --zookeeper 192.168.1.10:2181 --topic test --from-beginning  


在producer的console端输入字符串,consumer报 Connection refused 错误: 


broker, producer和consumer都注册到zookeeper上,producer和consumer的参数明确指定。问题出在broker的配置文件server.properties上: 
Properties代码   收藏代码
  1. # Hostname the broker will bind to. If not set, the server will bind to all interfaces  
  2. #host.name=localhost  

host名称没有指定,就是127.0.0.1,consumer去broker拿数据就有问题。设置为192.168.1.10,重启服务就好了。


本文转载于http://czj4451.iteye.com/blog/2041096


Apache Kafka是一个分布式流处理平台,主要用于实时数据管道大型事件驱动系统。以下是Kafka的基本安装测试步骤: 1. **下载与安装**: - 从Apache官网(https://kafka.apache.org/downloads)下载最新版本Kafka二进制包,选择适合你的操作系统(如Linux、Windows或Mac)的tar.gz文件。 - 解压下载的包到你想要的地方,并配置环境变量指向bin目录。 2. **启动服务**: - 打开终端,进入解压后的目录,运行`./bin/kafka-server-start.sh config/server.properties`命令启动Zookeeper服务器(Zookeeper是Kafka的一部分,用于存储元数据)。然后分别启动Kafka broker(`./bin/kafka-server-start.sh config/broker.properties`)。 3. **创建主题**: 使用`./bin/kafka-topics.sh`命令行工具创建一个新的主题,例如:`./bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic my-topic`. 4. **生产者示例**: 编写一个生产者程序(使用提供的Java或Python API),向主题发送消息。例如,在Java中可以这样做: ```java Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); KafkaProducer<String, String> producer = new KafkaProducer<>(props); producer.send(new ProducerRecord<>("my-topic", "key", "value")); producer.close(); ``` 5. **消费者示例**: 同样编写一个消费者程序,从刚才创建的主题中消费消息。在Java中,可以像下面这样: ```java Properties consProps = new Properties(); consProps.put("bootstrap.servers", "localhost:9092"); consProps.put("group.id", "test"); Consumer<String, String> consumer = new KafkaConsumer<>(consProps, new StringDeserializer(), new StringDeserializer()); consumer.subscribe(Collections.singletonList("my-topic")); while (true) { ConsumerRecords<String, String> records = consumer.poll(100); for (ConsumerRecord<String, String> record : records) System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value()); } ``` 6. **验证与测试**: 确保生产者消费者能够正常工作,查看控制台日志确认消息是否已成功传递。检查主题是否已创建并有记录,以及消费者是否能接收到消息。 完成上述步骤后,你就有了一个基本的Kafka环境。如果你想深入了解Kafka的高级特性,例如故障恢复、事务支持等,还需要继续学习其文档教程。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值