hadoop 之flume 日志收集系统,及与kafka相似与不同处

本文介绍了Apache Flume,一个分布式日志收集系统,其架构包含source、channel和sink三个核心组件。Flume支持多种数据源和目标,如HDFS、Solr等。同时,文章对比了Flume与Kafka在日志处理中的差异,强调了Flume在Hadoop生态中的优化以及两者如何结合使用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

flume主要用于日志采集,其中的agent里面包含3个核心的组件:source(采集/输入)—->channel(缓存/管道)—–>sink(输出),类似生产者、仓库、消费者的架构。 
source:source组件是专门用来收集数据的,可以处理各种类型、各种格式的日志数据,包括avro、thrift、exec、jms、spooling directory、netcat、sequence generator、syslog、http、legacy、自定义。 
channel:source组件把数据收集来以后,临时存放在channel中,即channel组件在agent中是专门用来存放临时数据的——对采集到的数据进行简单的缓存,可以存放在memory、jdbc、file等等。 
sink:sink组件是用于把数据发送到目的地的组件,目的地包括hdfs、logger、avro、thrift、ipc、file、null、hbase、solr、自定义。

Flume与Kafka对比可参看文章末尾部分

Flume

在具体介绍本文内容之前,先给大家看一下Hadoop业务的整体开发流程: 

è¿éåå¾çæè¿°

<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

life1024

你的鼓励将是我创作的最大动力。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值