Hadoop伪分布式搭建

本文详细介绍Hadoop伪分布式环境的搭建步骤,包括SSH配置、JDK与Hadoop安装、核心配置文件修改、格式化NameNode及启动服务。通过本教程,读者可以快速掌握Hadoop伪分布式部署的全过程。

Hadoop伪分布式的搭建

0x00事先准备

准备jdk和Hadoop的安装包。建议删掉自带的Java,要不然后面配置环境变量会有坑

rpm -qa | grep java #查看相关Java的包

然后删除涉及jdk的几个包

rpm -e --nodeps [+jdk名]

之后将jdk和Hadoop上传到机子中就可以正式开始搭建了

0x01 ssh配置

同样是使用rpm查看是否安装ssh

rpm -qa | grep ssh

如果出现openssh-server等,那么说明系统已经安装好ssh,如果没有,则需要自行安装

yum install openssh-clients
yum install openssh-server

然后开始进行ssh 免密登陆,先执行一下ssh localhost 登陆一下,看看ssh是否正常使用,然后exit就会退出ssh,

cd ~/.ssh
ssh-keygen -t rsa
cat id_rsa.pub >> authorized_keys
chmod 600 ./authorized_keys

之后我们再登陆ssh 就不需要密码了

0x02 修改本地映射

vi /etc/hosts
#然后在文件末尾添加
#[你的ip] 用户名 

大致如下图

[1365898-20190125201801943-1892300950.png

0x03 Jdk的安装

我们将之前第一步准备的jdk安装包解压,我们用的是jdk1.7.0_91

这里我的安装目录是 /usr/local

tar -zxvf jdk-7u91-linux-x64.tar.gz -C /usr/local

# 然后是配置环境变量
vi ~/.bashrc
# 打开这个文件后,在末尾添加上
export JAVA_HOME=/usr/local/jdk1.7.0_91  # 这里填的就是你的jdk安装路径
export PATH=$JAVA_HOME/bin:$PATH

# 然后使用source 使环境变量生效,记住,每次修改环境变量都要使用一下 
source ~/.bashrc

0x04 Hadoop安装

将之前准备的Hadoop安装包解压,

tar -zxvf hadoop-2.6.0.tar.gz -C /usr/local

解压好之后,(最好把解压之后的文件夹直接命名为hadoop,这样配置环境变量方便) 我们到Hadoop文件夹下

cd /usr/local/hadoop 然后我们查看Hadoop的版本,确保安装成功

./bin/hadoop version

0x05 hadoop 伪分布式相关配置

1 环境变量

vim ~/.bashrc
# 与配置jdk相同的道理:
export HADOOP_HOME=/usr/local/hadoop  #hadoop 的目录
export HADOOP_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
#同样source一下
source ~/.bashrc

2 core-site.xml配置

此文件与接下来几个配置文件都是在 /usr/local/hadoop/etc/hadoop 文件夹下,我们使用vi打开然后修改。首先是core-site.xml

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/data</value>
<description>hadoop_temp</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop01:8020</value>  #这里注意一下,之前修改的映射时的用户名,我这里叫做hadoop01
<description>hdfs_derect</description>
</property>
</configuration>

3 hdfs-site.xml

<configuration>
<property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>/usr/local/hadoop/tmp/dfs/name</value>
</property>
<property>
    <name>dfs.datanode.data.dir</name>
    <value>/usr/local/hadoop/tmp/dfs/data</value>
</property>
</configuration>

4 mapred-site.xml

<configuration>
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
</configuration>

这个配置文件刚开始文件名是叫做mapred-site.xml.template,我们可以在配置好之后把名字改一下

5 yarn-site.xml

<configuration>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>

这个文件要配置好,一开始我就是这里出了错

0x06 hadoop namenode 格式化

hdfs namenode -format

如果执行成功的话,会出现如下图所示

1365898-20190125201823034-1611452678.png

0x07 关闭防火墙

这里我用的是Centos7,关闭防火墙的命令是firewalld

启动: systemctl start firewalld
关闭: systemctl stop firewalld
开机禁用 systemctl disable firewalld
开机启用 systemctl enable firewalld

0x08 开始启动hadoop

我们来到 /usr/local/hadoop/sbin 文件夹下,使用 ls 我们可以看到许多启动文件

[1365898-20190125201852491-129665602.png

其中 start-all.sh 是启动全部的

我们在此目录下执行 ./start-all.sh

如果出现如下图则成功启动
1365898-20190125201926774-1017701228.png

然后输入jps

看到以下5个进程,就算大功告成了

namenode
secondarynamenode
datanode
resourcemanager
nodemanager

转载于:https://www.cnblogs.com/c4ri5j/p/10321484.html

标题基于Python的自主学习系统后端设计与实现AI更换标题第1章引言介绍自主学习系统的研究背景、意义、现状以及本文的研究方法和创新点。1.1研究背景与意义阐述自主学习系统在教育技术领域的重要性和应用价值。1.2国内外研究现状分析国内外在自主学习系统后端技术方面的研究进展。1.3研究方法与创新点概述本文采用Python技术栈的设计方法和系统创新点。第2章相关理论与技术总结自主学习系统后端开发的相关理论和技术基础。2.1自主学习系统理论阐述自主学习系统的定义、特征和理论基础。2.2Python后端技术栈介绍DjangoFlask等Python后端框架及其适用场景。2.3数据库技术讨论关系型和非关系型数据库在系统中的应用方案。第3章系统设计与实现详细介绍自主学习系统后端的设计方案和实现过程。3.1系统架构设计提出基于微服务的系统架构设计方案。3.2核心模块设计详细说明用户管理、学习资源管理、进度跟踪等核心模块设计。3.3关键技术实现阐述个性化推荐算法、学习行为分析等关键技术的实现。第4章系统测试与评估对系统进行功能测试和性能评估。4.1测试环境与方法介绍测试环境配置和采用的测试方法。4.2功能测试结果展示各功能模块的测试结果和问题修复情况。4.3性能评估分析分析系统在高并发等场景下的性能表现。第5章结论与展望总结研究成果并提出未来改进方向。5.1研究结论概括系统设计的主要成果和技术创新。5.2未来展望指出系统局限性并提出后续优化方向。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值