kafka安装使用配置1.2

本文详细介绍了如何使用Apache Flume收集日志数据,并将其发送到Kafka主题的过程。通过配置Flume的source、channel和sink,实现从本地文件实时读取数据并推送到Kafka集群的完整流程。

进入cd /usr/local/flume/conf/

vi kafka.conf

配置

agent.sources=s1

agent.channels=c1

agent.sinks=k1

agent.sources.s1.type=exec

agent.sources.s1.command=tail -F /tmp/logs/kafka.log

agent.sources.s1.channels=c1

agent.channels.c1.type=memory

agent.channels.c1.capacity=10000

agent.channels.c1.transactionCapacity=100

#设置Kafka接收器

agent.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSink

#设置Kafka的broker地址和端口号

agent.sinks.k1.brokerList=192.168.16.100:9092

#设置Kafka的Topic

agent.sinks.k1.topic=kafkatest

#设置序列化方式

agent.sinks.k1.serializer.class=kafka.serializer.StringEncoder

agent.sinks.k1.channel=c1

vi kafka.sh

for ((i=0;i<=1000;i++));

do

echo "kafka_test-"+$i >> /tmp/logs/kafka.log;

done

克隆一个窗口

cd /tmp/

mkdir logs

cd logs/ ls

cat kafka.log

另一个窗口touch /tmp/logs/kafka.log

sh kafka.sh

直接完事也太快了需要加延迟sleep 10

rm -rf * 干点所有

sh kafka.sh

cat logs里面的文件

老命令

kafka-server-start.sh -daemon config/server.properties &

新命令(一般用新)

kafka-server-start.sh /usr/local/kafka/config/server.properties &

克隆一个窗口

kafka-topics.sh --create --zookeeper 192.168.16.100:2181 --replication-factor 1 --partitions 1 --topic kafkatest

d.打开新终端,在kafka安装目录下执行如下命令,生成对topickafkatest的消费

kafka-console-consumer.sh --bootstrap-server 192.168.16.100:9092 --topic kafkatest --from-beginning

e.启动flum

flume-ng agent --conf . --conf-file /usr/local/flume/conf/kafka.conf --name agent -D flume.root.logger=DEBUG,console

flume-ng agent --name agent --conf . --conf-file kafka.conf -Dflume.root.logger=DEBUG,console

转载于:https://www.cnblogs.com/dasiji/p/11246866.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值