Hadoop 环境搭建

创建用户 hadoop 并设置密码

useradd hadoop
passwd hadoop

把hadoop用户添加到sudoers 里
vi /etc/sudoers
在root ALL=(ALL) ALL 下面一行添加
hadoop ALL=(ALL) NOPASSWD: ALL

强制保存退出 :wq!

同步系统时间
sudo ntpdate cn.pool.ntp.org
sudo hwclock -w

在/opt 目录下创建software和moudle 目录

mkdir /opt/software /opt/moudle

更改 software和moudle 目录所属用户及用户组
chown hadoop:hadoop /opt/software /opt/moudle

修改配置 /etc/hosts
sudo vi /etc/hosts

192.168.56.101 centos
安装Hadoop

将hadoop-2.7.3.tar.gz 解压到/opt/moudle 目录下
tar -zxvf hadoop-2.7.3.tar.gz -C /opt/moudle/

配置环境变量
假设已经安装过了jdk1.8,编辑配置 sudo vi /etc/profile

export JAVA_HOME=/opt/moudle/jdk1.8.0_131
export HADOOP_HOME=/opt/moudle/hadoop-2.7.3

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

使更改生效source /etc/profile

修改需要修改hadoop配置,Hadoop配置文件都在/opt/moudle/hadoop-2.7.3/etc/hadoop 目录下。将etc/hadoop/hadoop-env.sh 中的export JAVA_HOME 指向JDK的绝对路径。
vi hadoop-env.sh
将 export JAVA_HOME=${JAVA_HOME} 改为 export JAVA_HOME=/opt/moudle/jdk1.8.0_131

HDFS的配置

修改配置 etc/hadoop/core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://centos:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/moudle/hadoop-2.7.3/data</value>
    </property>
</configuration>

修改配置 etc/hadoop/hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

格式化Hadoop文件系统

$ hdfs namenode -format
看到如下输出,说明格式化成功了,注意不能多次格式化。

19/12/05 14:38:10 INFO common.Storage: Storage directory /opt/moudle/hadoop-2.7.3/data/dfs/name has been successfully formatted.
19/12/05 14:38:10 INFO namenode.FSImageFormatProtobuf: Saving image file /opt/moudle/hadoop-2.7.3/data/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
19/12/05 14:38:11 INFO namenode.FSImageFormatProtobuf: Image file /opt/moudle/hadoop-2.7.3/data/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 353 bytes saved in 0 seconds.

启动namenode

hadoop-daemon.sh start namenode

通过jps 查看namenode 进程

[hadoop@centos hadoop-2.7.3]$ jps
28267 NameNode
28443 Jps
启动datanode

hadoop-daemon.sh start datanode

访问http://192.168.56.101:50070/hdfs
HDFS 命令使用
  • 创建目录hadoop fs -mkdir /hadoop
  • 上传文件到/hadoop 目录 hadoop fs -put /etc/profile /hadoop/

通过Utilities 可以看到我们创建到目录和上传到文件
hdfs
hdfs

MapReduce的配置

修改配置 etc/hadoop/mapred-site.xml
拷贝模版文件 mapred-site.xml.template
cp mapred-site.xml.template mapred-site.xml

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

修改配置 etc/hadoop/yarn-site.xml

<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>centos</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>

启动ResourceManager yarn-daemon.sh start resourcemanager
启动NodeManager yarn-daemon.sh start nodemanager

32720 NodeManager
25088 NameNode
31924 ResourceManager
25364 DataNode
3623 Jps
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值