『Hadoop』MapReduce 处理 日志log(单机版)

本文介绍了在日志处理性能需求增高的情况下,如何借助Hadoop的MapReduce框架进行分布式操作。MapReduce通过逻辑分片、Mapper和Reducer实现数据的分布式处理,解决了大文件处理的内存问题。文章还涵盖了Hadoop的配置、MapReduce的原理以及在处理日志数据时的具体应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

博客引流

本文为Hadoop单机版,伪分布版请移步『HDFS』伪分布式Hadoop集群

10.2晚又出现上次CPU打满

于是痛定思痛 检查了下业务流程

发现处理日志和build两块很吃内存

尤其是日志处理,随着日志量的增大,不可避免的是处理越来越慢,对性能要求越来越高

这个时候不免想到利用MapReduce对处理过程进行分布式操作

Shell

之前在另外的blog中,我们仔细的分析了对Nginx access.log 文件如何去进行数据处理

时间上,我们可以感觉到这种bash脚本的处理方式,很轻量化

处理性能也比写java程序,cpp程序要更高效

但当数据量大起来的时候,这种做法就有些不可取

Shell对文件操作是一次性把文件load到内存中,然后再处理

如果这个时候文件比较大,到达数GB就会把内存撑爆

即使把Swap空间调到很大,也无济于事

Ps:实际上我们的log文件没有那么大,但我们的内存小呀,才是需求

分片分机

这个时候很容易想到,如果把数据拆分到数个文件,分配到几台机子上一起运行,那么可以解决这个问题。

但实际上怎么操作还是有一些弊端,比如说:

  1. 第一步对文件分片的过程仍然是顺序的,虽然内存占用不多,但速度上不去;
  2. 原始数据需要拷贝到其他机器上去,网络传输需要时间;
  3. 最重要的一个问题,这全部的过程相当繁琐,极易出错,且不够通用;

What Is MapReduce

MapReduce是一种借鉴于面向函数中map,reduce操作的分布式处理框架

图片.png | center | 556x200

  1. 资瓷输入多个文件;
  2. 把每个文件进行逻辑分片,分成指定大小的数据块,每个数据块称为InputSplit;
  • 由于要处理很大的文件,所以首先必须要进行分片,这样接下来才便于数据块的处理和传输;
  • 而且,这里的文件分片是与业务无关的,而非根据hash分片。根据哈希值进行的文件拆分,需要编程人员根据具体统计需求来确定如何进行哈希,比如根据什么字段进行哈希,以及哈希成多少份。而现在的文件分片,只用考虑分片大小就可以了。分片过程与业务无关,意味着这个过程可以写进框架,而无需使用者操心;
  • 另外,还需要注意的一点是,这里的分片只是逻辑上的,并没有真正地把文件切成很多个小文件。实际上那样做是成本很高的。所谓逻辑上的分片,就是说每个InputSplit只是指明当前分片是对应哪一个文件、起始字节位置以及分片长度,而非真正的分文件,省去了原本第一步分片的开销;
  1. 为每一个InputSplit分配一个Mapper任务,它允许调度到不同机器上并行执行。这个Mapper定义了一个高度抽象的map操作,它的输入是一对key-value,而输出则是key-value的列表
  • 输入的InputSplit每次传多少数据给Mapper呢?这些数据又是怎么变成key-value的格式的呢?实际上,InputSplit的数据确实要经过一定的变换,一部分一部分地变换成key-value的格式传进Mapper。这个转换过程使用者自己可以指定。而对于一般的文本输入文件来说(比如访问日志),数据是一行一行传给Mapper的,其中value=当前行,key=当前行在输入文件中的位置;
  • Mapper里需要对输入的key-value执行什么处理呢?这部分就是需要用户下程序来实现的部分, Hadoop支持多种语言,但大部分还是基于Java的
  • Mapper输出的key和value怎么确定呢?这里输出的key很关键。整个系统保证,从Mapper输出的相同的key,不管这些key是从同一个Mapper输出的,还是从不同Mapper输出的,它们后续都会归类到同一个Reducer过程中去处理。比如要统计日活跃,那么这里就希望相同的用户ID最终要送到一个地方去处理(计数),所以输出的key就应该是用户ID;
  1. Mapper输出的key-value列表,根据key的值哈希到不同的数据分片中,这里的数据块被称为Partition。后面有多少个Reducer,每个Mapper的输出就对应多少个Partition。最终,一个Mapper的输出,会根据(PartitionId, key)来排序。这样,Mapper输出到同一个Partition中的key-value就是有序的了。这里的过程其实有点类似于之前那种方式根据根据哈希值来进行文件拆分的做法,但那里是对全部数据进行拆分,这里只是对当前InputSplit的部分数据进行划分,数据规模已经减小很多了;
  2. 从各个Mapper收集对应的Partition数据,进行归并排序,然后将每个key和它所对应的所有value传给Reducer处理。Reducer也可以调度到不同机器上并行执行;
    由于数据在传给Reducer处理之前进行了排序,所以前面所有Mapper输出的同一个Partition内部相同key的数据都已经挨在了一起,因此可以把这些挨着的数据一次性传给Reducer。如果相同key的数据特别多,那么也没有关系,因为这里传给Reducer的value列表是以Iterator的形式传递的,并不是全部在内存里的列表;
  3. Reducer在处理后再输出自己的key-value,存储到输出文件中。每个Reducer对应一个输出文件;

Hadoop配置

参考官方文档Hadoop: Setting up a Single Node Cluster.

  • 在安装的过程中,需要jdk wget不下来,需要加在--no-cookie --header "Cookie: oraclelicense=accept-securebackup-cookie"
  • Hadoop跑example.jar的时候出现ERROR impl.MetricsSystemImpl: Error getting localhost name. Using 'localhost'... java.net.UnknownHostException: xxx: xxx: Temporary failure in name resolution
    • /etc/hosts中添加ip hostname, like 47.75.137.198 gunjianpan 具体参见这个Issue
  • bin/hadoop jar 的时候遇到Exception in thread “main” java.lang.SecurityException: Prohibited package name: java.lang的报错
    • 实际上是因为class不是在根目录下,导致package包位置与内部写的位置对不上,把class移到根目录就好了, 参考stackoverflow
  • 遇到Class 'KPIPVMapper' must either be declared abstract or implement abstract method 'map(K1, V1, OutputCollector<K2, V2>, Reporter)' in 'Mapper'
    • 应该是Hadoop版本的问题,修改Map头就好了public class MyMapper<K extends WritableComparable, V extends Writable> extends MapReduceBase implements Mapper<K, V, K, V>,参考Interface Mapper<K1,V1,K2,V2>
      PS: 要注意Maven不是必须的,Maven只是用来引用包的,同样功能也可以通过Gradle实现

Map, Reduce

PS: Hadoop 1.* 和 2.* 关于Map Reduce的写法不太一样,需针对版本进行学习, 本文资瓷Hadoop 3.1.1

先放code

  1. prepare class
package com.wyydsb.service.blog.api.controller;

import lombok.AllArgsConstructor;
import lombok.Builder;
import lombok.Data;
import lombok.NoArgsConstructor;

import java.text.ParseException;
import java.text.SimpleDateFormat;
import java.util.ArrayList;
import java.util.Calendar;
import java.util.Date;
import java.util.List;
import java.util.Locale;
import java.util.stream.Collectors;

@Builder
@Data
@NoArgsConstructor
@AllArgsConstructor

public class KPI {
   

    private String remote_addr;
    private String time_local;
    private String request;
    private String status;
    private String body_bytes_sent;
    private String http_referer;
    private String http_user_agent;
    private Integer valid;

    @Override
    public String toString() {
   
        StringBuilder sb = new StringBuilder();
        sb.append("valid:" + this.valid);
        sb.append("\nremote_addr:" + this.remote_addr);
        sb.append("\ntime_local:" + this.time_local);
        sb.append("\nrequest:" + this.request);
        sb.append("\nstatus:" + this.status);
        sb.append("\nbody_bytes_sent:" + this.body_bytes_sent);
        sb.append("\nhttp_referer:" + this.http_referer);
        sb.append("\nhttp_user_agent:" + this.http_user_agent);
        return sb.toString();
    }

    /**
     * line split
     */
    private static KPI parser(String line) {
   
        KPI kpi = new KPI();
        String[] arr = line.split(" ", 12);

        if (arr.length > 11) {
   
            kpi.setRemote_addr(arr[0]);
  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值