54、Hadoop:大数据处理的强大工具

Hadoop:大数据处理的强大工具

1. Hadoop 概述

在互联网发展的早期,在线数据量就已经非常庞大。如今,网站数量近乎增长了千倍,搜索引擎每天要处理的搜索请求更是高达数万亿次。谷歌在开发搜索引擎时,为了快速返回搜索结果,采用了将大量计算机(节点)连接起来的集群系统,同时为保证系统在部分节点故障时仍能正常运行,构建了高度冗余机制。谷歌发布了相关设计,但未开源其软件。雅虎的程序员依据谷歌的设计构建了自己的系统,并将其开源,Apache 组织将该系统实现为 Hadoop。此外,谷歌的另外两篇论文也推动了 Hadoop 的发展。

1.1 Hadoop 的关键组件

Hadoop 主要包含以下关键组件:
- HDFS(Hadoop 分布式文件系统) :用于在整个集群中存储大量数据。
- MapReduce :用于实现处理数据的任务。

MapReduce 任务分为映射和归约两个步骤。映射步骤处理原始数据,将其转换为键 - 值对;归约步骤则将这些键 - 值对合并以产生最终结果。Hadoop 将数据分批分布到集群节点,并将 MapReduce 任务代码分发到各节点并行执行,最后使用 YARN 协调资源和调度任务。

1.2 Hadoop 生态系统

Hadoop 已发展成为一个庞大的生态系统,包含众多 Apache 项目:
| 项目名称 | 项目链接 | 项目简介 |
| — | — | — |
| Ambari | https://ambari.apache.org | 用于管理 Hadoop 集群的工具 |
| Drill | https://drill.apache.org | 对 Hadoop 和 NoSQL 数据库中的非关系数据进行 SQL 查询 |
| Flume | https://flume.apache.org | 收集和存储流式事件数据的服务 |
| HBase | https://hbase.apache.org | 用于大数据的 NoSQL 数据库 |
| Hive | https://hive.apache.org | 使用 SQL 与数据仓库中的数据交互 |
| Impala | https://impala.apache.org | 用于对存储在 Hadoop HDFS 或 HBase 中的分布式数据进行实时 SQL 查询的数据库 |
| Kafka | https://kafka.apache.org | 实时消息传递、流处理和存储 |
| Pig | https://pig.apache.org | 将数据分析任务从 Pig Latin 脚本语言转换为 MapReduce 任务的脚本平台 |
| Sqoop | https://sqoop.apache.org | 在数据库之间移动结构化、半结构化和非结构化数据的工具 |
| Storm | https://storm.apache.org | 用于数据分析、机器学习、ETL 等任务的实时流处理系统 |
| ZooKeeper | https://zookeeper.apache.org | 管理集群配置和协调集群之间的服务 |

1.3 Hadoop 提供商

众多云服务提供商将 Hadoop 作为服务提供,如 Amazon EMR、Google Cloud DataProc、IBM Watson Analytics Engine、Microsoft Azure HDInsight 等。此外,Cloudera 和 Hortonworks 等公司提供集成的 Hadoop 生态系统组件和工具,还提供可在桌面运行的免费下载环境。

1.4 Hadoop 3

Apache 持续改进 Hadoop,Hadoop 3 于 2017 年 12 月发布,具有更好的性能和显著提高的存储效率。

2. 通过 MapReduce 总结《罗密欧与朱丽叶》中的单词长度

2.1 任务概述

使用 Microsoft Azure HDInsight 创建基于云的多节点计算机集群,利用该服务演示 Hadoop MapReduce 在集群上的运行。具体任务是确定《罗密欧与朱丽叶》文本文件中每个单词的长度,并总结每种长度的单词数量。

2.2 创建 Apache Hadoop 集群

大多数主要云服务提供商都支持 Hadoop 和 Spark 计算集群,可根据应用需求进行配置。这里使用 Microsoft Azure 的 HDInsight 服务创建集群,步骤如下:
1. 访问 https://azure.microsoft.com/en-us/free 注册账户,需提供信用卡进行身份验证。
2. 了解免费服务信息:https://azure.microsoft.com/en-us/free/free-account-faq/ 。
3. 按照以下链接的说明设置 Hadoop 集群:https://docs.microsoft.com/en-us/azure/hdinsight/hadoop/apache-hadoop-linux-create-cluster-get-started-portal 。
- 步骤 1 :登录 https://portal.azure.com 访问 Azure 门户。
- 步骤 2 :“Data + Analytics” 现称为 “Analytics”,HDInsight 图标和颜色可能与教程不同。
- 步骤 3 :选择唯一的集群名称,创建密码,点击 “Create new” 并提供资源组名称。
- 步骤 5 :点击 “Create new” 并提供仅包含小写字母和数字的唯一存储账户名称。

默认配置的集群成本较高,可进行如下修改以降低成本:

graph LR
    A[进入集群摘要页面] --> B[点击集群大小右侧的编辑]
    B --> C[将工作节点数量更改为 2]
    C --> D[点击工作节点大小,选择 D3 v2 并点击选择]
    D --> E[点击头节点大小,选择 D3 v2 并点击选择]
    E --> F[点击下一步两次返回集群摘要页面]
    F --> G[验证新配置,创建按钮启用后点击创建]

修改后,集群估计每小时成本为 1.18 美元。创建集群大约需要 20 - 30 分钟。

2.3 Hadoop 流式处理

对于 Python 等 Hadoop 原生不支持的语言,需使用 Hadoop 流式处理实现任务。Hadoop 流式处理中,Python 脚本通过标准输入和输出流与 Hadoop 通信,具体流程如下:
1. Hadoop 为映射脚本(mapper)提供输入,脚本从标准输入流读取。
2. 映射脚本将结果写入标准输出流。
3. Hadoop 将映射脚本的输出作为归约脚本(reducer)的输入,归约脚本从标准输入流读取。
4. 归约脚本将结果写入标准输出流。
5. Hadoop 将归约脚本的输出写入 Hadoop 文件系统(HDFS)。

2.4 实现映射器

以下是映射器脚本 length_mapper.py 的代码:

#!/usr/bin/env python3
# length_mapper.py
"""Maps lines of text to key-value pairs of word lengths and 1."""
import sys

def tokenize_input():
    """Split each line of standard input into a list of strings."""
    for line in sys.stdin:
        yield line.split()

# read each line in the the standard input and for every word 
# produce a key-value pair containing the word, a tab and 1
for line in tokenize_input():
    for word in line:
        print(str(len(word)) + '\t1')

该脚本将输入的文本行映射为键 - 值对,键为单词长度,值为 1。

2.5 实现归约器

以下是归约器脚本 length_reducer.py 的代码:

#!/usr/bin/env python3
# length_reducer.py
"""Counts the number of words with each length."""
import sys
from itertools import groupby
from operator import itemgetter

def tokenize_input():
    """Split each line of standard input into a key and a value."""
    for line in sys.stdin:
        yield line.strip().split('\t')

# produce key-value pairs of word lengths and counts separated by tabs
for word_length, group in groupby(tokenize_input(), itemgetter(0)):
    try:
        total = sum(int(count) for word_length, count in group)
        print(word_length + '\t' + str(total))
    except ValueError:
        pass  # ignore word if its count was not an integer

该脚本将映射器输出的键 - 值对按键分组,计算每个键对应的总计数。

2.6 准备运行 MapReduce 示例

在命令提示符、终端或 shell 中,切换到包含映射器、归约器脚本和 RomeoAndJuliet.txt 文件的文件夹。使用以下命令将文件上传到 HDInsight Hadoop 集群:

scp length_mapper.py length_reducer.py RomeoAndJuliet.txt YourClusterName-ssh.azurehdinsight.net:

请将 YourClusterName 替换为设置 Hadoop 集群时指定的名称。

3. 运行 MapReduce 任务

3.1 提交任务

在将所需文件上传到 HDInsight Hadoop 集群后,就可以提交 MapReduce 任务了。可以使用以下命令提交任务:

hadoop jar /usr/hdp/current/hadoop-mapreduce-client/hadoop-streaming.jar \
-input /user/sshuser/RomeoAndJuliet.txt \
-output /user/sshuser/output \
-mapper /user/sshuser/length_mapper.py \
-reducer /user/sshuser/length_reducer.py

这个命令的参数解释如下:
| 参数 | 说明 |
| — | — |
| -input | 指定输入文件的路径,这里是上传到集群的 RomeoAndJuliet.txt 文件。 |
| -output | 指定输出结果的路径,注意该路径不能已经存在,否则会报错。 |
| -mapper | 指定映射器脚本的路径。 |
| -reducer | 指定归约器脚本的路径。 |

3.2 查看任务结果

任务提交后,Hadoop 会自动分配集群资源并执行任务。任务完成后,可以使用以下命令查看结果:

hdfs dfs -cat /user/sshuser/output/part-00000

这个命令会将任务输出文件的内容显示在终端上,输出结果是每个单词长度及其对应的单词数量的键 - 值对。

3.3 任务执行流程总结

下面是 MapReduce 任务执行的流程图:

graph LR
    A[输入数据:RomeoAndJuliet.txt] --> B[Hadoop 分发数据到节点]
    B --> C[映射器处理数据]
    C --> D[生成键 - 值对]
    D --> E[Hadoop 收集键 - 值对并分组]
    E --> F[归约器处理分组数据]
    F --> G[生成最终结果]
    G --> H[存储结果到 HDFS]

4. 总结与注意事项

4.1 总结

通过以上步骤,我们成功地使用 Hadoop MapReduce 对《罗密欧与朱丽叶》文本文件中的单词长度进行了统计。整个过程包括创建 Hadoop 集群、实现映射器和归约器脚本、上传文件到集群、提交任务以及查看结果。Hadoop 提供了强大的分布式计算能力,能够高效地处理大规模数据。

4.2 注意事项

  • 成本控制 :使用云服务提供商的 Hadoop 集群时,要注意控制成本。在不使用集群时,及时删除集群和相关资源,避免不必要的费用。
  • Python 版本 :在编写 Python 脚本时,要注意集群上安装的 Python 版本。由于集群可能没有 Python 3.6 或更高版本,不能使用 f - 字符串等新特性。
  • 文件路径 :在上传文件和提交任务时,要确保文件路径的正确性,否则会导致任务失败。

4.3 未来展望

Hadoop 作为大数据处理的重要工具,不断发展和完善。未来,随着数据量的不断增长,Hadoop 及其生态系统将在更多领域发挥重要作用,如人工智能、物联网等。同时,也可以结合其他大数据技术,如 Spark、NoSQL 数据库等,进一步提高数据处理的效率和性能。

4.4 操作步骤回顾

为了方便大家回顾整个操作过程,下面是一个操作步骤的列表总结:
1. 注册 Microsoft Azure 账户并获取免费额度。
2. 创建 Apache Hadoop 集群,可根据需求调整集群配置以降低成本。
3. 编写映射器和归约器脚本。
4. 将脚本和输入文件上传到集群。
5. 提交 MapReduce 任务。
6. 查看任务结果。
7. 任务完成后,删除集群和相关资源以避免费用。

通过以上步骤,你可以深入了解 Hadoop MapReduce 的工作原理和使用方法,为处理大规模数据打下坚实的基础。

根据原作 https://pan.quark.cn/s/459657bcfd45 的源码改编 Classic-ML-Methods-Algo 引言 建立这个项目,是为了梳理和总结传统机器学习(Machine Learning)方法(methods)或者算法(algo),和各位同仁相互学习交流. 现在的深度学习本质上来自于传统的神经网络模型,很程度上是传统机器学习的延续,同时也在不少时候需要结合传统方法来实现. 任何机器学习方法基本的流程结构都是通用的;使用的评价方法也基本通用;使用的一些数学知识也是通用的. 本文在梳理传统机器学习方法算法的同时也会顺便补充这些流程,数学上的知识以供参考. 机器学习 机器学习是人工智能(Artificial Intelligence)的一个分支,也是实现人工智能最重要的手段.区别于传统的基于规则(rule-based)的算法,机器学习可以从数据中获取知识,从而实现规定的任务[Ian Goodfellow and Yoshua Bengio and Aaron Courville的Deep Learning].这些知识可以分为四种: 总结(summarization) 预测(prediction) 估计(estimation) 假想验证(hypothesis testing) 机器学习主要关心的是预测[Varian在Big Data : New Tricks for Econometrics],预测的可以是连续性的输出变量,分类,聚类或者物品之间的有趣关联. 机器学习分类 根据数据配置(setting,是否有标签,可以是连续的也可以是离散的)和任务目标,我们可以将机器学习方法分为四种: 无监督(unsupervised) 训练数据没有给定...
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值