大数据之Flume组件的使用

Flume是一个用于实时数据收集、聚合和移动的分布式、可靠且容错的系统,尤其适用于Unix环境。它由Source、Channel和Sink组成,Source采集数据,Channel作为数据缓冲区,Sink负责将数据写入目标源如HDFS或HBase。Event是数据传输的基本单位,整个流程确保数据的高效流转。通过配置Flume Agent,可以实现如监听端口并输出数据等场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

flume

flume 是什么?

简介

Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。当前Flume有两个版本。Flume 0.9X版本的统称Flume OG(original generation),Flume1.X版本的统称Flume NG(next generation)。由于Flume NG经过核心组件、核心配置以及代码架构重构,与Flume OG有很大不同,使用时请注意区分。改动的另一原因是将Flume纳入 apache 旗下,Cloudera Flume 改名为 Apache Flume。

flume框架基础

  • 理性认知:
    1、Flume在集群中扮演的角色
    Flume、Kafka用来实时进行数据收集,Spark、Storm用来实时处理数据,impala用来实时查询。
    2、Flume框架简介
    1.1 Flume提供一个分布式的,可靠的,对大数据量的日志进行高效收集、聚集、移动的服务,Flume只能在Unix环境下运行。
    1.2 Flume基于流式架构,容错性强,也很灵活简单,主要用于在线实时分析。
    1.3 角色
    ** Source
    用于采集数据,Source是产生数据流的地方,同时Source会将产生的数据流传输到Channel,这个有点类似于Java IO部分的Channel
    ** Channel
    用于桥接Sources和Sinks,类似于一个队列。
    ** Sink
    从Channel收集数据,将数据写到目标源(可以是下一个Source,也可以是HDFS或者HBase)
    1.4 传输单元
    ** Event
    Flume数据传输的基本单元,以事件的形式将数据从源头送至目的地
    1.5 传输过程
    source监控某个文件,文件产生新的数据&#x

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值