kafka service.xml配置

本文详细介绍了Kafka服务器的各项配置参数,包括broker标识、数据存放路径、消息大小限制、日志清理策略等内容,帮助读者理解并合理调整Kafka的运行参数。

# broker在集群中的唯一标识(>=0),当该服务器的IP地址发生改变时,broker.id没有变化,不会影响consumers
broker.id =0
# kafka数据的存放地址,多个地址的话用逗号分割 /opt/log/kafka/logs1,/opt/log/kafka/logs2
log.dirs=/opt/log/kafka/logs
# broker server服务端口
port =9092
# 是否允许自动创建topic,若是false,就需要通过命令创建topic
auto.create.topics.enable =true
# 每个topic的分区个数,若是在topic创建时候没有指定的话会被topic创建时的指定参数覆盖
num.partitions =10
# 表示消息体的最大大小,单位是字节
message.max.bytes =6525000
# broker处理消息的最大线程数,一般情况下不需要去修改
num.network.threads =4
# broker处理磁盘IO的线程数,数值应该大于你的硬盘数
num.io.threads =8
# 一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改
background.threads =4
# 等待IO线程处理的请求队列最大数,若是等待IO的请求超过这个数值,那么会停止接受外部消息,是一种自我保护机制。
queued.max.requests =500
# socket的发送缓冲区,socket的调优参数SO_SNDBUFF
socket.send.buffer.bytes=100*1024
# socket的接受缓冲区,socket的调优参数SO_RCVBUFF
socket.receive.buffer.bytes =100*1024
# socket请求的最大数值,防止serverOOM,message.max.bytes必然要小于socket.request.max.bytes,会被topic创建时的指定参数覆盖
socket.request.max.bytes =100*1024*1024# *******************以下为日志定时清除策略***********************
# 设置每个segment的大小为200*1024*1024 【200M】,超过大小重新创建新的segment
log.segment.bytes=209715200 
# 日志清理策略选择有:delete和compact主要针对过期数据的处理,delete 为不可恢复;compact 为压缩
log.cleanup.policy = delete 
# 每5分钟【5*60*1000】检查一次是否有segment已经超过5h没更新,如果有则标记为.deleted
log.retention.check.interval.ms=300000
log.retention.hours=5  
# topic每个分区的最大文件大小5G,一个topic的大小限制 = 分区数*log.retention.bytes。-1没有大小限,log.retention.bytes和log.retention.hours 任意一个达到要求,都会执行删除(标记为.deleted)
log.retention.bytes=5368709120 
# 10分钟检查一次是否有被 标记为deleted的segment,如果有将其从文件系统删除
log.cleaner.backoff.ms=600000
​
​
# 对于压缩的日志保留的最长时间,也是客户端消费消息的最长时间,同log.retention.minutes/hours的区别在于一个控制未压缩数据,一个控制压缩后的数据。会被topic创建时的指定参数覆盖
log.cleaner.delete.retention.ms =1day
# 是否开启日志压缩
log.cleaner.enable=false
# 日志压缩运行的线程数
log.cleaner.threads = 2
# 日志压缩时候处理的最大大小
log.cleaner.io.max.bytes.per.second=None
# 日志压缩去重时候的缓存空间,在空间允许的情况下,越大越好
log.cleaner.dedupe.buffer.size=500*1024*1024
# 对于segment日志的索引文件大小限制,会被topic创建时的指定参数覆盖
log.index.size.max.bytes =10*1024*1024

其他参数使用默认的即可

spring.application.name=dataIngestionSystem logging.level.org.springframework.boot.autoconfigure= error #spring.datasource.hikari.jdbc-url: jdbc:hive2://10.99.32.76:10000/myhive #spring.datasource.hikari.driver-class-name: org.apache.hive.jdbc.HiveDriver #spring.datasource.hikari.username: #spring.datasource.hikari.password: spring.datasource.name=dataSource spring.datasource.driver-class-name=com.mysql.cj.jdbc.Driver spring.datasource.url=jdbc:mysql://10.99.32.76:3306/data_insystm spring.datasource.username=root spring.datasource.password=JktueGFp01mT1J1r bootstrap.servers=10.99.40.14:21007,10.99.40.13:21007,10.99.40.12:21007 manager_username=xxx manager_password=xxx # Kafka????? spring.kafka.bootstrap-servers=10.99.40.14:21007,10.99.40.13:21007,10.99.40.12:21007 # ????????????????? spring.kafka.security.protocol=SASL_PLAINTEXT spring.kafka.properties.sasl.jaas.config=com.sun.security.auth.module.Krb5LoginModule required useKeyTab=true keyTab="/opt/client/jkt_keytab/user.keytab" storeKey=false useTicketCache=false serviceName="kafka" principal="jkt_sjzl@HADOOP.COM"; spring.kafka.properties.sasl.mechanism=GSSAPI spring.kafka.properties.security.protocol=SASL_PLAINTEXT # ????key???? spring.kafka.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer spring.kafka.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer # ????key???? spring.kafka.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer # ????value???? spring.kafka.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer #16KB spring.kafka.producer.batch-size=16384 #1?????? spring.kafka.producer.linger.ms=1 #32MB spring.kafka.producer.buffer-memory=33554432 spring.kafka.producer.acks=all #mybatis-plus.mapper-locations=classpath:mapper/*Mpper.xml #mybatis-plus.configuration.log-impl=org.apache.ibatis.logging.stdout.StdOutImpl #mybatis.mapper-locations=file:config/*/*.xml
最新发布
05-27
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值