八、搭建完全分布式Hadoop集群

本文详细介绍在虚拟机环境下搭建Hadoop2.9.2集群的过程,包括配置、启动及测试步骤。通过SSH连接三台虚拟机,设置NAT网络模式,完成HDFS和YARN配置,最终使用Java API验证集群功能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1.电脑配置

i5四代处理器,256G固态硬盘的笔记本电脑上安装vmware,然后新建三个虚拟机,每个虚拟机分配888M内存。

2.搭建过程

first:三台虚拟机ssh能互相登陆,hostname分别为server1,server2,server3,对应的ip地址分别为:192.168.138.50,192.168.138.51,192.168.138.52,网络模式为NAT。
second:集群规划如下:
server1server2server3
HDFSNameNode, DateNodeDateNodeSecondaryNameNode,DateNode
YARNNodeManagerResourceManager,NodeManagerNodeManager
third:官网下载hadoop2.9.2二进制包,修改$HADOOP_HOME/etc/hadoop/目录下的一些配置文件:

core-site.xml:

<!-- 指定 HDFS 中 NameNode 的地址 --> 
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://server1:9000</value>
 </property>
<!-- 指定 hadoop 运行时产生文件的存储目录 --> 
<property>
	<name>hadoop.tmp.dir</name>
	<value>/home/hassan/hadoop/tmp</value> 
</property>

hadoop-env.sh:

export JAVA_HOME=jdk的根目录

hdfs-site.xml

<property>
	<name>dfs.replication</name>
	<value>3</value> 
</property>
<property>
 	<name>dfs.namenode.secondary.http-address</name>
 	 <value>server3:50090</value>
</property>

slaves

server1
server2
server3

yarn-env.sh

export JAVA_HOME=jdk的根目录

yarn-site.xml

<!-- reducer 获取数据的方式 --> 
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value> 
</property>
<!-- 指定 YARN 的 ResourceManager 的地址 --> 
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>server2</value>
</property>

mapred-env.sh

export JAVA_HOME=jdk的根目录

mapred-site.xml

<!-- 指定 mr 运行在 yarn 上 -->
<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value> 
</property>

然后使用rsync -r hadoop安装文件 server1:/相应的目录同步文件到集群中的每一个节点。

3.启动集群

first:在server1上格式化NameNode:bin/hdfs namenode -format
second:启动HDFS:sbin/start-dfs.sh,这个时候就像集群规划的那样,可以在相应的节点上看到相应的NameNode, DateNode,SecondaryNameNode进程
third:启动yarn:sbin/start-yarn.sh,这个时候就像集群规划那样,可以在相应的节点上看到相应的ResourceManager,NodeManager进程。

4.测试集群

本来应该使用命令行测试一下HDFS,然后看相应的web界面是否可以访问,但这里偷了个懒,直接访问192.168.1.50:50070,发现HDFS的web界面可以访问,然后使用java API测试了一下HDFS,在其上创建了一个目录并且上传一个文件,代码如下:
pom.xml

<dependencies>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>2.9.2</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>2.9.2</version>
        </dependency>
        <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs -->
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>2.9.2</version>
        </dependency>
    </dependencies>

Test.java

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;

public class Test {
 static FileSystem fileSystem;
 static {
     Configuration configuration = new Configuration();
     try {
         fileSystem = FileSystem.get(new URI("hdfs://192.168.138.50:9000"), configuration, "hassan");
     } catch (Exception e) {
         e.printStackTrace();
     }
 }


 public static void main(String[] args) {
     try {
         //mkdir();
         Test test = new Test();
         test.upload();
     } catch (IOException e) {
         e.printStackTrace();
     } finally {
         if (null != fileSystem){
             try {
                 fileSystem.close();
             } catch (IOException e) {
                 e.printStackTrace();
             }
         }
     }
 }
 /**
  * 创建一个目录
  */
 public void mkdir() throws IOException {
     fileSystem.mkdirs(new Path("/aaa"));
 }

 public  void upload() throws IOException {
     fileSystem.copyFromLocalFile(new Path("C:\\Users\\Hassan\\Desktop\\Hassan\\project\\hadoop\\hdfs\\document1.txt"),
             new Path("/aaa/document1.txt"));
 }
}

命令行验证java API创建的目录和上传到文件:
bin/hdfs dfs -ls /
bin/hdfs dfs -ls /aaa
bin/hdfs dfs -cat /aaa/document1.txt
发现目录上传正确,文件也上传成功。

5.总结

  • 刚开始为了能在自己公司电脑上操作笔记本虚拟机上的集群,网络模式选择了桥接,但后来ssh一直不稳定,要么connect refused,要么broken pipe,猜测是由争抢ip导致,于是将网络模式改为NAT,问题解决。
  • 启动YARN的时候,发现server1的NodeManager没有启动起来,其它均正常,启动日志无异常(除了本应该在server2上创建一个server1结尾的日志文件,却创建成一个server2结尾的),然后在server2上ssh server1发现还是ssh到了本地,于是猜测是hosts文件配置错误,果不其然,该文件默认有一行:
    localhost server1,由于每一个节点都是由server1克隆而来,所有每一个节点都有这样的问题,修改完hosts文件,清除临时文件目录和日志目录中的文件,并且重新格式化NameNode的文件系统,重启集群问题自然解决。
基于数据挖掘的音乐推荐系统设计与实现 需要一个代码说明,不需要论文 采用python语言,django框架,mysql数据库开发 编程环境:pycharm,mysql8.0 系统分为前台+后台模式开发 网站前台: 用户注册, 登录 搜索音乐,音乐欣赏(可以在线进行播放) 用户登陆时选择相关感兴趣的音乐风格 音乐收藏 音乐推荐算法:(重点) 本课题需要大量用户行为(如播放记录、收藏列表)、音乐特征(如音频特征、歌曲元数据)等数据 (1)根据用户之间相似性或关联性,给一个用户推荐与其相似或有关联的其他用户所感兴趣的音乐; (2)根据音乐之间的相似性或关联性,给一个用户推荐与其感兴趣的音乐相似或有关联的其他音乐。 基于用户的推荐和基于物品的推荐 其中基于用户的推荐是基于用户的相似度找出相似相似用户,然后向目标用户推荐其相似用户喜欢的东西(和你类似的人也喜欢**东西); 而基于物品的推荐是基于物品的相似度找出相似的物品做推荐(喜欢该音乐的人还喜欢了**音乐); 管理员 管理员信息管理 注册用户管理,审核 音乐爬虫(爬虫方式爬取网站音乐数据) 音乐信息管理(上传歌曲MP3,以便前台播放) 音乐收藏管理 用户 用户资料修改 我的音乐收藏 完整前后端源码,部署后可正常运行! 环境说明 开发语言:python后端 python版本:3.7 数据库:mysql 5.7+ 数据库工具:Navicat11+ 开发软件:pycharm
MPU6050是一款广泛应用在无人机、机器人和运动设备中的六轴姿态传感器,它集成了三轴陀螺仪和三轴加速度计。这款传感器能够实时监测并提供设备的角速度和线性加速度数据,对于理解物体的动态运动状态至关重要。在Arduino平台上,通过特定的库文件可以方便地与MPU6050进行通信,获取并解析传感器数据。 `MPU6050.cpp`和`MPU6050.h`是Arduino库的关键组成部分。`MPU6050.h`是头文件,包含了定义传感器接口和函数声明。它定义了类`MPU6050`,该类包含了初始化传感器、读取数据等方法。例如,`begin()`函数用于设置传感器的工作模式和I2C地址,`getAcceleration()`和`getGyroscope()`则分别用于获取加速度和角速度数据。 在Arduino项目中,首先需要包含`MPU6050.h`头文件,然后创建`MPU6050`对象,并调用`begin()`函数初始化传感器。之后,可以通过循环调用`getAcceleration()`和`getGyroscope()`来不断更新传感器读数。为了处理这些原始数据,通常还需要进行校准和滤波,以消除噪声和漂移。 I2C通信协议是MPU6050与Arduino交互的基础,它是一种低引脚数的串行通信协议,允许多个设备共享一对数据线。Arduino板上的Wire库提供了I2C通信的底层支持,使得用户无需深入了解通信细节,就能方便地与MPU6050交互。 MPU6050传感器的数据包括加速度(X、Y、Z轴)和角速度(同样为X、Y、Z轴)。加速度数据可以用来计算物体的静态位置和动态运动,而角速度数据则能反映物体转动的速度。结合这两个数据,可以进一步计算出物体的姿态(如角度和角速度变化)。 在嵌入式开发领域,特别是使用STM32微控制器时,也可以找到类似的库来驱动MPU6050。STM32通常具有更强大的处理能力和更多的GPIO口,可以实现更复杂的控制算法。然而,基本的传感器操作流程和数据处理原理与Arduino平台相似。 在实际应用中,除了基本的传感器读取,还可能涉及到温度补偿、低功耗模式设置、DMP(数字运动处理器)功能的利用等高级特性。DMP可以帮助处理传感器数据,实现更高级的运动估计,减轻主控制器的计算负担。 MPU6050是一个强大的六轴传感器,广泛应用于各种需要实时运动追踪的项目中。通过 Arduino 或 STM32 的库文件,开发者可以轻松地与传感器交互,获取并处理数据,实现各种创新应用。博客和其他开源资源是学习和解决问题的重要途径,通过这些资源,开发者可以获得关于MPU6050的详细信息和实践指南
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值