kafak集群搭建-基于kRaft方式

在这里插入图片描述

1、服务器规划

在这里插入图片描述

2、kafka集群部署配置

至少需要三个节点

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

2.1、解压三个kafka

tar -zxvf kafka_2.13-3.7.0.tgz -C /usr/local/

2.2、配置/config/kraft/server.properties

其中马赛克处需要修改为你的服务器真实IP

配置第一台

在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

配置第二台:在这里插入图片描述

在这里插入图片描述在这里插入图片描述
在这里插入图片描述

配置第三台:
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

3、启动kafka集群

在这里插入图片描述
1、生成Cluster UUID(集群UUID)

./kafka-storage.sh random-uuid

在这里插入图片描述

2、格式化日志目录

./kafka-storage.sh format -t UBLFE9CCRwauv0Mc3tU7qQ -c ../config/kraft/server.properties

在这里插入图片描述

3、启动kafka

//后台启动
./kafka-server-start.sh ../config/kraft/server.properties &

4、关闭kafka

./kafka-server-stop.sh ../config/kraft/server.properties

4、SpringBoot集成kafka的kRaft集群

在这里插入图片描述

4.1、消费者

package com.power.consumer;

import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

@Component
public class EventConsumer {

    /**
     * topics 用于指定从哪个主题中消费消息
     * concurrency 用于指定有多少个消费者
     * @param record
     */
    @KafkaListener(topics = {"kraftClusterTopic"}, groupId = "kraftclusterGroup")
    public void onEventA(ConsumerRecord<String, String> record) {
        System.out.println(Thread.currentThread().getId()+"---> 消费消息 record = " + record);
    }
}

4.2、生产者

package com.power.producer;

import com.power.model.User;
import com.power.util.JSONUtils;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.Date;

@Component
public class EventProducer {

    @Resource
    private KafkaTemplate<String,Object> kafkaTemplate;

    public void sendEvent(){
        for (int i = 0; i < 2; i++) {
            User user = User.builder().id(i).phone("1567676767"+i).birthday(new Date()).build();
            String userJson = JSONUtils.toJSON(user);
            kafkaTemplate.send("kraftClusterTopic","k"+i, userJson);
        }
    }

}

4.3、配置类

package com.power.config;

import org.apache.kafka.clients.admin.NewTopic;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;

@Configuration
public class KafkaConfig {

    @Bean
    public NewTopic newTopic(){
        //设置副本个数不能为0,也不能大于节点个数,否则将不能创建Topic
        return new NewTopic("kraftClusterTopic",2, (short)2);
    }
}

4.4、实体类

package com.power.model;

import lombok.AllArgsConstructor;
import lombok.Builder;
import lombok.Data;
import lombok.NoArgsConstructor;

import java.util.Date;

@Builder
@AllArgsConstructor
@NoArgsConstructor
@Data
public class User {

    private Integer id;

    private String phone;

    private Date birthday;

}

4.5、JSON工具类

package com.power.util;

import com.fasterxml.jackson.core.JsonProcessingException;
import com.fasterxml.jackson.databind.ObjectMapper;

public class JSONUtils {

    private static final ObjectMapper OBJECTMAPPER = new ObjectMapper();

    public static String toJSON(Object object){
        try {
            return OBJECTMAPPER.writeValueAsString(object);
        } catch (JsonProcessingException e) {
            throw new RuntimeException(e);
        }
    }

    public static <T> T toBean(String json,Class<T> clazz){
        try {
            return OBJECTMAPPER.readValue(json,clazz);
        } catch (JsonProcessingException e) {
            throw new RuntimeException(e);
        }
    }
}

4.6、项目配置文件

spring:
  application:
    #应用名称
    name: spring-boot-08-kafka-kRaftCluster

  #kafka连接地址(ip+port)
  kafka:
    bootstrap-servers: <你的服务器IP>:9091,<你的服务器IP>:9092,<你的服务器IP>:9093

    #配置消费者的反序列化
    consumer:
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer

4.7、测试类

package com.power;

import com.power.producer.EventProducer;
import org.junit.jupiter.api.Test;
import org.springframework.boot.test.context.SpringBootTest;

import javax.annotation.Resource;

@SpringBootTest
public class SpringBoot08KafkaBaseApplication {

    @Resource
    private EventProducer eventProducer;

    @Test
    void sendInterceptor(){
        eventProducer.sendEvent();
    }

}
### Kafka 集群配置不使用 ZooKeeper 的替代方案 #### 使用 KRaft 模式 (Kafka Raft MetaData) 自 Apache Kafka 版本 2.8 开始引入了一种新的元数据管理模式——KRaft模式(KIP-500),这使得 Kafka 能够摆脱对 ZooKeeper 的依赖[^3]。在该模式下,Kafka 利用了内部实现的基于 Raft 协议的一致性算法来管理和维护集群中的元数据。 为了启用并运行一个完全独立于 ZooKeeper 的 Kafka 集群: 1. **下载安装包** 获取支持 KRaft 模式的 Kafka 发行版,例如版本 `3.x.x` 或更高版本。 2. **初始化元数据日志** 执行如下命令创建用于存储元数据的日志文件夹: ```bash mkdir -p /path/to/kraft/meta.properties ``` 3. **生成初始配置** 创建一个新的属性文件 `/path/to/kraft/meta.properties` 并添加必要的参数,如 broker.id 和 listeners 设置等。 4. **格式化元数据日志** 运行以下脚本来准备元数据日志: ```bash ./bin/kafka-storage.sh format \ --cluster-id $(./bin/kafka-storage.sh random-uuid) \ --config-file /path/to/kraft/meta.properties ``` 5. **启动 Broker** 修改启动脚本路径指向新配置文件,并执行启动操作: ```bash export KAFKA_OPTS="-Dlog.dirs=/tmp/kraft-combined-logs" ./bin/kafka-server-start.sh /path/to/kraft/meta.properties & ``` 通过上述方法可以成功搭建起无需借助外部组件(如ZooKeeper)即可正常工作的Kafka集群实例,在此过程中所有关于分区分配、控制器选举以及其它涉及元数据变更的操作都将由内置机制完成处理。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值