Hadoop的安装及常见的异常处理

本文详细介绍了Hadoop的安装步骤,包括关闭防火墙、修改主机名、设置主机映射、免密登录、安装JDK和Hadoop。接着,文章讲解了配置Hadoop环境变量,如core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。此外,还提到了格式化namenode、启动Hadoop服务以及解决eclipse中Hadoop插件的配置问题和常见异常,如UnknownHostException的处理方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop安装

彻底关闭防火墙 chkconfig iptables off

查看主机名 hostname

修改主机名 vim /etc/sysconfig/network

修改之后不会立即执行需要重启才会生效,重启指令reboot

临时生效hostname Hadoop01

修改host文件 vim /etc/hosts

将主机ip与主机名进行映射

设置免密登录 ssh-keygen---一直回车

执行操作ssh-copy-id root@hadoop01---在这输入密码

安装hadoop

首先进入home目录下创建software文件夹

使用xftp连接虚拟机----将hadoop以及jdk的安装包拖到/home/software目录下

 

执行rz指令之后开始上传hadoop、JDK安装包成功,开始解压2个安装包

tar -xvf hadoop。。。

配置jdk环境变量vim /etc/profile

JAVA_HOME=/home/Software/jdk8

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

PATH=$JAVA_HOME/bin:$PATH

export JAVA_HOME PATH CLASSPATH

让环境变量立即生效source /etc/profile    jdk配置是否成功java -version

将解压的安装包进行重命名mv Hadoop-**** Hadoop

进入到hadoop目录下的etc下的hadoop下修改配置文件vim Hadoop-env.sh

修改core-site.xml      vim core-site.xml

<configuration>
<!--
用来指定hdfs的老大,namenode的地址-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>
<!--用来指定hadoop运行时产生文件的存放目录-->
<property>
<name>hadoop.tmp.dir</name>
<value>/home/software/hadoop/tmp</value>
</property>
</configuration>

修改hdfs-site.xml  vim hdfs-site.xml

<configuration>
<!--
指定hdfs保存数据副本的数量,包括自己,默认值是3-->
<!--如果是伪分布模式,此值是1-->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<!--设置hdfs的操作权限,false表示任何用户都可以在hdfs上操作文件-->
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

修改 mapred-site.xml
这个文件初始时是没有的,有的是模板文件,mapred-site.xml.template
所以需要拷贝一份,并重命名为mapred-site.xml
执行:cp mapred-site.xml.template mapred-site.xml

<configuration>
<property>
<!--
指定mapreduce运行在yarn上-->
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

修改yarn-site.xml

<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<!--
指定yarn的老大 resoucemanager的地址-->
<name>yarn.resourcemanager.hostname</name>
<value>hadoop01</value>
</property>
<property>
<!--NodeManager获取数据的方式-->
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>

配置slaves文件

在hadoop文件目录下创建tmp文件

配置hadoop的环境变量 vim /etc/profile

JAVA_HOME=/home/software/jdk8

HADOOP_HOME=/home/software/hadoop

PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JAVA_HOME JAVA_BIN PATH CLASSPATH HADOOP_HOME

格式化namenode
执行:hadoop namenode -format
如果不好使,可以重启linux
当出现:successfully,证明格式化成功

  

进入到hadoop目录下的sbin目录 执行 sh start-dfs.sh  之后执行jps查看

在浏览器启动hadoop01:50070查看

配置eclipse

将hadoop插件hadoop-eclipse-plugin-2.7.1放到eclipse的plugins目录下(打开eclipse)

点击右下角的黄色小象图标(如下图操作)

点击箭头所示的蓝色小象,如下图进行修改

在本地解压hadoop安装包

配置hadoop环境变量

将本地hadoop安装包解压引入eclipse(用于单机测试)

报错:java.net.UnknownHostException: hadoop01

未在本机做hadoop的映射关系

 

使用过程中出现的常见异常:

这个是hadoop插件自身的小问题,就是说这个插件是需要一个叫winutils文件支持的,这个错呢他是一个不确定的因素,是在,mr处出现,将插件hadoopbin

双击打开把里面的文件全部复制一下拷贝到hadoop插件下的bin目录里

 

然后配置hadoop的环境变量Hadoop_Home和Path

 

重启电脑(执行到这一步要是还是不可以,继续下面的操作)

 

在拷贝一份这个文件丢到c:/windows/system32下再重启就可以了

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值