flume link kafka的配置文件

本文介绍了一种使用Apache Flume实现数据从源头采集并通过两个独立的内存通道发送到两个不同Kafka主题的配置方案。该配置允许数据被复制到多个目标,适用于需要将同一份数据发送到不同系统的场景。
#两个channels 和两个 sink
agent.sources = s
agent.channels = c c1
agent.sinks = r k

#这就是source 把源数据打向两个channels
agent.sources.s.channels = c c1
agent.sources.s.type = exec
agent.sources.s.command = tail -fn 1 /home/hadoop/data/flume-log/flume.log

#下面时两个sink的配置指向两个不同的topic
agent.sinks.r.type = org.apache.flume.plugins.KafkaSink
agent.sinks.r.metadata.broker.list=192.168.179.3:9092,192.168.179.4:9092,192.168.179.5:9092
agent.sinks.r.serializer.class=kafka.serializer.StringEncoder
agent.sinks.r.request.required.acks=-1
agent.sinks.r.max.message.size=1000000
agent.sinks.r.agent.type=sync
agent.sinks.r.custom.encoding=UTF-8
agent.sinks.r.custom.topic.name=make-flume

agent.sinks.k.type = org.apache.flume.plugins.KafkaSink
agent.sinks.k.metadata.broker.list=192.168.179.3:9092,192.168.179.4:9092,192.168.179.5:9092
agent.sinks.k.serializer.class=kafka.serializer.StringEncoder
agent.sinks.k.request.required.acks=-1
agent.sinks.k.max.message.size=1000000
agent.sinks.k.agent.type=sync
agent.sinks.k.custom.encoding=UTF-8
agent.sinks.k.custom.topic.name=test
下面时两个不同的channel管道缓存
agent.sinks.r.channel = c
agent.sinks.k.channel = c1

agent.channels.c.type = memory
agent.channels.c.capacity = 1000000
agent.channels.c.transactionCapacity = 1000000


agent.channels.c1.type = memory
agent.channels.c1.capacity = 1000000
agent.channels.c1.transactionCapacity = 1000000

要配置FlumeKafka的集成,可以按照以下步骤进行操作: 1. 首先,需要在Flume配置文件中定义source、sink和channel。其中,source指定为Kafka的source端,sink指定为Kafka的sink端,channel用于在source和sink之间传递数据。配置文件中的示例配置可以参考引用中的flume-kafka.conf。 2. 如果要将Kafka作为source端,需要在配置文件中设置source的类型为kafka,并指定Kafka的相关参数,如Kafka的地址、topic名称等。 3. 启动Flume之前,确保Zookeeper和Kafka已经成功启动。因为Flume在启动时会连接Kafka,如果Kafka未启动,会导致连接错误。参考引用中的说明。 4. 如果要将Kafka作为sink端,需要在配置文件中设置sink的类型为kafka,并指定Kafka的相关参数,如Kafka的地址、topic名称等。 5. 在启动Flume之前,需要确保Zookeeper集群和Kafka集群已经成功启动。 6. 可以使用命令行创建和查看Kafka的topic,以及创建Kafka的消费者。具体命令可以根据实际需求进行设置。 7. 启动Flume,并发送消息到Flume的端口。 8. 在Kafka的消费者中接收消息,验证数据是否成功传输。 需要注意的是,在配置FlumeKafka的过程中,需要根据实际情况调整相关参数,确保FlumeKafka能够正确地进行数据传输和接收。配置文件的具体内容可以参考引用中的示例配置。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Flume对接Kafka详细过程](https://blog.youkuaiyun.com/qq_47183158/article/details/112179052)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [玩转Flume+Kafka原来也就那点事儿](https://blog.youkuaiyun.com/weixin_34189116/article/details/89658220)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [快速学习-Flume 对接 Kafka](https://download.youkuaiyun.com/download/weixin_38592548/14885746)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值