Hadoop生态圈之Flume(一)

Flume是一款由Cloudera提供的高可用、高可靠、分布式日志采集工具,核心是通过source、channel、sink完成数据采集、缓存和传输。本文详细介绍了Flume的运行机制、核心组件、安装部署、简单与复杂架构案例,以及load-balance和failover功能,帮助理解Flume在数据传输中的作用和配置方法。

1. 概述

       Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。

       Flume的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume在删除自己缓存的数据。

2. 运行机制

  • flume 本身是一个 Java 进程,在需要采集数据机器上启动 ---->  agent 进程
  • agent 进程里面包含了:source(采集源)、sink(下沉地)、channel(数据传输通道)
  • 在整个数据的传输的过程中,流动的是event,它是Flume内部数据传输的最基本单元。event将传输的数据进行封装。如果是文本文件,通常是一行记录,event也是事务的基本单位。event从source,流向channel,再到sink,本身为一个字节数组,并可携带headers(头信息)信息。event代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去。
  • 一个完整的event包括:event headers、event body、event信息,其中event信息就是flume收集到的日记记录。

3. 核心组件

  • source:用于对接各个不同的数据源
  • sink:用于对接各个不同存储数据的目的地(数据下沉地)
  • channel:用于中间临时存储缓存数据

4. 运行架构

4.1 简单架构

只需要部署一个 agent 进程即可(单个 agent 采集数据)

4.2 复杂架构

       多个 agent 之间串联,相当于大家手拉手共同完成数据的采集传输工作,在串联的架构中没有主从之分,大家的地位都是一样的。

5. Flume 的安装部署

  1. 上传安装包到数据源所在节点上,然后解压  tar -zxvf apache-flume-1.8.0-bin.tar.gz,然后进入flume的目录,修改conf下的flume-env.sh,在里面配置JAVA_HOME
  2. 根据数据采集需求配置采集方案,描述在配置文件中(文件名可任意自定义)
  3. 指定采集方案配置文件,在相应的节点上启动flume agent

5.1 测试程序环境

(1)现在 flume 的 conf 目录下新建一个文件

vim  netcat-logger.conf
### Hadoop 生态系统的组件及其作用 Hadoop 生态系统是个用于处理大规模数据集的分布式计算框架,其核心组件包括 HDFS、MapReduce YARN,这些组件构成了 Hadoop 的基础架构,分别负责数据存储、任务调度资源管理[^1]。 #### HDFS(Hadoop Distributed File System) HDFS 是 Hadoop 的分布式文件系统,专为高吞吐量的数据访问设计。它将文件划分为多个块,并在集群中的多个节点上存储这些块,以实现数据的高可用性容错性。HDFS 支持大规模数据集的存储,并且能够容忍节点故障,确保数据的安全性完整性。 #### MapReduce MapReduce 是 Hadoop 的核心计算模型,用于处理分析存储在 HDFS 中的数据。它将计算任务分为两个阶段:Map 阶段 Reduce 阶段。在 Map 阶段,数据被分割并进行初步处理;在 Reduce 阶段,结果被汇总并生成最终输出。MapReduce 通过将任务分配到多个节点上执行,实现了对大规模数据的并行处理[^1]。 #### YARN(Yet Another Resource Negotiator) YARN 是 Hadoop 的资源管理框架,负责集群中资源的管理调度。它将资源管理与任务调度分离,使得 Hadoop 能够支持多种计算模型,而不仅仅是 MapReduce。YARN 提供了更高的灵活性可扩展性,使得 Hadoop 可以更好地适应不同的数据处理需求[^1]。 ### Hadoop 生态系统中的其他重要组件 除了上述核心组件外,Hadoop 生态系统还包括许多其他工具框架,这些组件扩展了 Hadoop 的功能,使其能够支持更广泛的应用场景。 #### Hive Hive 是 Hadoop 上的数据仓库工具,提供了类 SQL 的查询语言(HiveQL),允许用户通过简单的 SQL 语句对存储在 HDFS 中的数据进行查询分析。Hive 将 SQL 查询转换为 MapReduce 任务,从而简化了大数据处理的复杂性[^1]。 #### Pig Pig 是种高级数据流语言执行框架,用于分析大规模数据集。Pig 提供了种名为 Pig Latin 的脚本语言,用户可以通过编写 Pig Latin 脚本来描述数据处理流程。Pig 会自动将这些脚本转换为 MapReduce 任务,从而简化了数据处理的开发过程。 #### Mahout Mahout 是个机器学习算法库,旨在为 Hadoop 提供可扩展的机器学习能力。Mahout 提供了多种聚类、分类推荐算法,适用于大规模数据集的分析建模。 #### HBase HBase 是个分布式、面向列的 NoSQL 数据库,适用于需要实时读写访问大规模数据集的场景。HBase 基于 HDFS 构建,支持随机、实时的读写操作,并且能够处理 PB 级别的数据[^1]。 #### Zookeeper Zookeeper 是个分布式协调服务,用于维护管理分布式系统中的配置信息、命名服务分布式同步。Zookeeper 提供了高可用性致性,是 Hadoop 生态系统中许多组件(如 HBase Kafka)的重要依赖。 #### Sqoop Sqoop 是个用于在 Hadoop 关系型数据库之间传输数据的工具。它支持将数据从关系型数据库(如 MySQL、Oracle)导入到 HDFS 或 Hive 中,并且可以将处理后的数据导出回关系型数据库[^1]。 #### Flume Flume个分布式、可靠的系统,用于高效地收集、聚合移动大量日志数据。Flume 支持多种数据源,可以将数据实时地传输到 HDFS 或其他存储系统中,适用于日志数据的采集处理。 #### Oozie Oozie 是 Hadoop 的工作流调度引擎,用于协调管理 Hadoop 作业的执行。Oozie 支持多种作业类型,包括 MapReduce、Pig、Hive Sqoop 作业,并且可以通过 XML 文件定义复杂的工作流[^1]。 #### Ambari Ambari 是个用于部署、管理监控 Hadoop 集群的工具。Ambari 提供了图形化界面,用户可以通过该界面轻松地安装配置 Hadoop 组件,并实时监控集群的状态性能。 #### Spark Spark 是个快速、通用的大数据处理引擎,支持内存计算流处理。Spark 提供了比 MapReduce 更高的性能,并且支持多种编程语言(如 Scala、Java Python)。Spark 可以与 Hadoop 集成,用于处理存储在 HDFS 中的数据。 #### Avro Avro 是个数据序列化系统,支持丰富的数据结构,并且具有紧凑的二进制格式。Avro 被广泛用于 Hadoop 生态系统中的数据交换存储,特别是在 Kafka Hadoop 的数据管道中[^2]。 #### Thrift Thrift 是个跨语言的服务开发框架,用于构建高性能的 RPC(远程过程调用)服务。Thrift 支持多种编程语言,并且能够生成高效的网络通信代码,适用于构建分布式系统中的服务接口[^2]。 #### Drill Drill 是个低延迟的分布式 SQL 查询引擎,支持对多种数据源(如 HDFS、MongoDB HBase)进行实时查询。Drill 提供了灵活的查询能力,并且能够处理结构化半结构化的数据[^2]。 ### 示例代码:使用 Hive 查询数据 以下是个使用 HiveQL 查询数据的简单示例: ```sql SELECT id, name, age FROM bucketed_table WHERE age > 30; ``` 此查询将从名为 `bucketed_table` 的表中检索年龄大于 30 的记录。Hive 会自动将此查询转换为 MapReduce 任务,并在 Hadoop 集群上执行。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值