Hadoop生态圈之Flume(二)

本文详细介绍使用Flume进行日志采集、处理和汇总至HDFS的实战案例。通过配置Flume拦截器,实现从多台服务器的不同日志类型(如access.log、nginx.log、web.log)中实时采集数据,并根据日志类型自动分类存入HDFS指定目录。

Flume拦截器实战案例

日志采集和汇总

案例场景

A、B两台日志服务机器实时生产日志主要类型为access.log、nginx.log、web.log

现在要求:

把A、B 机器中的access.log、nginx.log、web.log 采集汇总到C机器上然后统一收集到hdfs中。

但是在hdfs中要求的目录为:

/source/logs/access/20160101/**

/source/logs/nginx/20160101/**

/source/logs/web/20160101/**

场景分析

数据流程处理分析

功能实现

  • 在服务器A和服务器B上创建配置文件    exec_source_avro_sink.conf

# Name the components on this agent

a1.sources = r1 r2 r3

a1.sinks = k1

a1.channels = c1

 

# Describe/configure the source

a1.sources.r1.type = exec

a1.sources.r1.command = tail -F /root/data/access.log

a1.sources.r1.interceptors = i1

a1.sources.r1.interceptors.i1.type = static

##  static拦截器的功能就是往采集到的数据的header中插入自## 己定义的key-value对

a1.sources.r1.interceptors.i1.key = type

a1.sources.r1.interceptors.i1.value = access

 

a1.sources.r2.type = exec

a1.sources.r2.command = tail -F /root/data/nginx.log

a1.sources.r2.interceptors = i2

a1.sources.r2.interceptors.i2.type = static

a1.sources.r2.interceptors.i2.key = type

a1.sources.r2.interceptors.i2.value = nginx

 

a1.sources.r3.type = exec

a1.sources.r3.command = tail -F /root/data/web.log

a1.sources.r3.interceptors = i3

a1.sources.r3.interceptors.i3.type = static

a1.sources.r3.interceptors.i3.key = type

a1.sources.r3.interceptors.i3.value = web

 

# Describe the sink

a1.sinks.k1.type = avro

a1.sinks.k1.hostname = 192.168.200.101

a1.sinks.k1.port = 41414

 

# Use a channel which buffers events in memory

a1.channels.c1.type = memory

a1.channels.c1.capacity = 20000

a1.channels.c1.transactionCapacity = 10000

 

# Bind the source and sink to the channel

a1.sources.r1.channels = c1

a1.sources.r2.channels = c1

a1.sources.r3.channels = c1

a1.sinks.k1.channel = c1

 

  • 在服务器C上创建配置文件 avro_source_hdfs_sink.conf  文件内容为

 

#定义agent名, source、channel、sink的名称

a1.sources = r1

a1.sinks = k1

a1.channels = c1

 

#定义source

a1.sources.r1.type = avro

a1.sources.r1.bind = mini2

a1.sources.r1.port =41414

 

#添加时间拦截器

a1.sources.r1.interceptors = i1

a1.sources.r1.interceptors.i1.type =

org.apache.flume.interceptor.TimestampInterceptor$Builder

 

#定义channels

a1.channels.c1.type = memory

a1.channels.c1.capacity = 20000

a1.channels.c1.transactionCapacity = 10000

 

#定义sink

a1.sinks.k1.type = hdfs

a1.sinks.k1.hdfs.path=hdfs://192.168.200.101:9000/source/logs/%{type}/%Y%m%d

a1.sinks.k1.hdfs.filePrefix =events

a1.sinks.k1.hdfs.fileType = DataStream

a1.sinks.k1.hdfs.writeFormat = Text

#时间类型

a1.sinks.k1.hdfs.useLocalTimeStamp = true

#生成的文件不按条数生成

a1.sinks.k1.hdfs.rollCount = 0

#生成的文件按时间生成

a1.sinks.k1.hdfs.rollInterval = 30

#生成的文件按大小生成

a1.sinks.k1.hdfs.rollSize  = 10485760

#批量写入hdfs的个数

a1.sinks.k1.hdfs.batchSize = 10000

flume操作hdfs的线程数(包括新建,写入等)

a1.sinks.k1.hdfs.threadsPoolSize=10

#操作hdfs超时时间

a1.sinks.k1.hdfs.callTimeout=30000

 

#组装source、channel、sink

a1.sources.r1.channels = c1

a1.sinks.k1.channel = c1

  • 配置完成之后,在服务器A和B上的/root/data有数据文件access.log、nginx.log、web.log。先启动服务器C上的flume,启动命令

在flume安装目录下执行 :

bin/flume-ng agent -c conf -f conf/avro_source_hdfs_sink.conf -name a1 -Dflume.root.logger=DEBUG,console   

 

然后在启动服务器上的A和B,启动命令

在flume安装目录下执行 :

bin/flume-ng agent -c conf -f conf/exec_source_avro_sink.conf -name a1 -Dflume.root.logger=DEBUG,console   

 

 

### Hadoop 生态系统的组件及其作用 Hadoop 生态系统是一个用于处理大规模数据集的分布式计算框架,其核心组件包括 HDFS、MapReduce 和 YARN,这些组件构成了 Hadoop 的基础架构,分别负责数据存储、任务调度和资源管理[^1]。 #### HDFS(Hadoop Distributed File System) HDFS 是 Hadoop 的分布式文件系统,专为高吞吐量的数据访问设计。它将文件划分为多个块,并在集群中的多个节点上存储这些块,以实现数据的高可用性和容错性。HDFS 支持大规模数据集的存储,并且能够容忍节点故障,确保数据的安全性和完整性。 #### MapReduce MapReduce 是 Hadoop 的核心计算模型,用于处理和分析存储在 HDFS 中的数据。它将计算任务分为两个阶段:Map 阶段和 Reduce 阶段。在 Map 阶段,数据被分割并进行初步处理;在 Reduce 阶段,结果被汇总并生成最终输出。MapReduce 通过将任务分配到多个节点上执行,实现了对大规模数据的并行处理[^1]。 #### YARN(Yet Another Resource Negotiator) YARN 是 Hadoop 的资源管理框架,负责集群中资源的管理和调度。它将资源管理与任务调度分离,使得 Hadoop 能够支持多种计算模型,而不仅仅是 MapReduce。YARN 提供了更高的灵活性和可扩展性,使得 Hadoop 可以更好地适应不同的数据处理需求[^1]。 ### Hadoop 生态系统中的其他重要组件 除了上述核心组件外,Hadoop 生态系统还包括许多其他工具和框架,这些组件扩展了 Hadoop 的功能,使其能够支持更广泛的应用场景。 #### Hive Hive 是 Hadoop 上的数据仓库工具,提供了类 SQL 的查询语言(HiveQL),允许用户通过简单的 SQL 语句对存储在 HDFS 中的数据进行查询和分析。Hive 将 SQL 查询转换为 MapReduce 任务,从而简化了大数据处理的复杂性[^1]。 #### Pig Pig 是一种高级数据流语言和执行框架,用于分析大规模数据集。Pig 提供了一种名为 Pig Latin 的脚本语言,用户可以通过编写 Pig Latin 脚本来描述数据处理流程。Pig 会自动将这些脚本转换为 MapReduce 任务,从而简化了数据处理的开发过程。 #### Mahout Mahout 是一个机器学习算法库,旨在为 Hadoop 提供可扩展的机器学习能力。Mahout 提供了多种聚类、分类和推荐算法,适用于大规模数据集的分析和建模。 #### HBase HBase 是一个分布式、面向列的 NoSQL 数据库,适用于需要实时读写访问大规模数据集的场景。HBase 基于 HDFS 构建,支持随机、实时的读写操作,并且能够处理 PB 级别的数据[^1]。 #### Zookeeper Zookeeper 是一个分布式协调服务,用于维护和管理分布式系统中的配置信息、命名服务和分布式同步。Zookeeper 提供了高可用性和一致性,是 Hadoop 生态系统中许多组件(如 HBase 和 Kafka)的重要依赖。 #### Sqoop Sqoop 是一个用于在 Hadoop 和关系型数据库之间传输数据的工具。它支持将数据从关系型数据库(如 MySQL、Oracle)导入到 HDFS 或 Hive 中,并且可以将处理后的数据导出回关系型数据库[^1]。 #### Flume Flume 是一个分布式、可靠的系统,用于高效地收集、聚合和移动大量日志数据。Flume 支持多种数据源,可以将数据实时地传输到 HDFS 或其他存储系统中,适用于日志数据的采集和处理。 #### Oozie Oozie 是 Hadoop 的工作流调度引擎,用于协调和管理 Hadoop 作业的执行。Oozie 支持多种作业类型,包括 MapReduce、Pig、Hive 和 Sqoop 作业,并且可以通过 XML 文件定义复杂的工作流[^1]。 #### Ambari Ambari 是一个用于部署、管理和监控 Hadoop 集群的工具。Ambari 提供了图形化界面,用户可以通过该界面轻松地安装和配置 Hadoop 组件,并实时监控集群的状态和性能。 #### Spark Spark 是一个快速、通用的大数据处理引擎,支持内存计算和流处理。Spark 提供了比 MapReduce 更高的性能,并且支持多种编程语言(如 Scala、Java 和 Python)。Spark 可以与 Hadoop 集成,用于处理存储在 HDFS 中的数据。 #### Avro Avro 是一个数据序列化系统,支持丰富的数据结构,并且具有紧凑的进制格式。Avro 被广泛用于 Hadoop 生态系统中的数据交换和存储,特别是在 Kafka 和 Hadoop 的数据管道中[^2]。 #### Thrift Thrift 是一个跨语言的服务开发框架,用于构建高性能的 RPC(远程过程调用)服务。Thrift 支持多种编程语言,并且能够生成高效的网络通信代码,适用于构建分布式系统中的服务接口[^2]。 #### Drill Drill 是一个低延迟的分布式 SQL 查询引擎,支持对多种数据源(如 HDFS、MongoDB 和 HBase)进行实时查询。Drill 提供了灵活的查询能力,并且能够处理结构化和半结构化的数据[^2]。 ### 示例代码:使用 Hive 查询数据 以下是一个使用 HiveQL 查询数据的简单示例: ```sql SELECT id, name, age FROM bucketed_table WHERE age > 30; ``` 此查询将从名为 `bucketed_table` 的表中检索年龄大于 30 的记录。Hive 会自动将此查询转换为 MapReduce 任务,并在 Hadoop 集群上执行。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值