Ubuntu下伪分布式搭建步骤

Ubuntu下伪分布式搭建步骤

  1. 首先来配置SSH免密码登陆
ssh-keygen -t rsa
  1. 此时ssh公钥和私钥已经生成完毕,且放置在/.ssh目录下。切换到/.ssh目录下(如果找不到可以利用find查找)
cd ~/.ssh
  1. 可以看到~/.ssh目录下的文件
ll
  1. 在~/.ssh目录下,创建一个空文本,名为authorized_keys
touch ~/.ssh/authorized_keys
  1. 存储公钥文件的id_rsa.pub里的内容,追加到authorized_keys中
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
  1. 执行ssh localhost测试ssh配置是否正确(记得用exit退出)
ssh localhost
  1. 创建两个目录(如果是在root账户下创建,则不用修改其权限)
sudo mkdir /apps  
sudo mkdir /data
  1. 配置Hadoop。用来存放相关安装工具,如jdk安装包及hadoop安装包(这一步在之前安装部署单机Hadoop时已操作过,只需验证即可)
  2. 验证JAVA和hadoop环境变量配置是否正常
java –version
hadoop version

只要正常显示,说明配置没有问题,不用重复配置,如果输入source /etc/profile依旧无法正常显示,则需要重新配置。删除Java和hadoop的安装文件夹后,重新解压这几个文件到指定位置即可。具体做法参考书上P50页单机安装。
10. 接下来修改Hadoop配置文件。切换到hadoop配置目录下(这个根据实际情况,一般根据我的要求,是在/home文件夹下,所以可以在此文件夹下查找,有可能是在:、/home/hadoop/hadoop/etc/hadoop这个目录下)

cd /home/hadoop/hadoop/etc/hadoop
  1. 打开hadoop-env.sh配置文件进行修改
sudo vim /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh

其中内容为:

export JAVA_HOME=你实际的java路径地址
  1. 打开core-site.xml配置文件
sudo vim /home/hadoop/hadoop/etc/hadoop/core-site.xml

添加下面配置到与标签之间
注意!/data/tmp/hadoop/tmp这个路径的文件夹tmp需要自己创建!

<property>  
    <name>hadoop.tmp.dir</name>  
    <value>/data/tmp/hadoop/tmp</value>  
</property>  
<property>  
    <name>fs.defaultFS</name>  
    <value>hdfs://0.0.0.0:9000</value>  
</property>
  1. 打开hdfs-site.xml配置文件
sudo vim /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

添加下面配置到与标签之间
注意!/data/tmp/hadoop/hdfs这个路径的文件夹hdfs需要自己创建!

<property>  
    <name>dfs.namenode.name.dir</name>  
    <value>/data/tmp/hadoop/hdfs/name</value>  
</property>  
 <property>  
     <name>dfs.datanode.data.dir</name>  
     <value>/data/tmp/hadoop/hdfs/data</value>  
 </property>  
 <property>  
     <name>dfs.replication</name>  
     <value>1</value>  
 </property>  
 <property>  
     <name>dfs.permissions.enabled</name>  
     <value>false</value>  
 </property>  
  1. 打开mapred-site.xml配置文件
sudo vim /home/hadoop/hadoop/etc/hadoop/mapred-site.xml

添加下面配置到与标签之间

<property>  
     <name>mapreduce.framework.name</name>  
     <value>yarn</value>  
 </property>
  1. 打开yarn-site.xml配置文件
sudo vim /home/hadoop/hadoop/etc/hadoop/yarn-site.xml

添加下面配置到与标签之间

<property>  
     <name>yarn.nodemanager.aux-services</name>  
     <value>mapreduce_shuffle</value>  
 </property>
  1. 输入sudo vim /home/hadoop/hadoop/etc/hadoop/slaves,打开slaves配置文件(如果找不到,用find搜索)
sudo vim /home/hadoop/hadoop/etc/hadoop/slaves

里面应该是localhost
11. 下面格式化HDFS文件系统

hadoop namenode –format
  1. 切换目录到/home/hadoop/hadoop/sbin目录下(如果找不到,用find搜索)
cd /home/hadoop/hadoop/sbin/
  1. 启动hadoop的hdfs相关进程
./start-dfs.sh
  1. 输入jps查看HDFS相关进程是否已经启动
jps

如果出现至少4个进程,证明启动成功。
注意!结束前记得./stop-all.sh,并删除name和data两个文件夹!!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值