Hadoop3.1.0 伪分布式环境安装部署

前言
刚刚开始学大数据的时候Hadoop最新版还是2.5.0,现在都已经出到3.1.0了,时间好快啊
Hadoop版本:apache-hadoop3.1.0
Linux操作系统:平时工作的时候都是CentOS6,CentOS7,
这将在archLinux系列的manjaro上部署,命令啊,步骤啊什么的都是一样的。
主要是想以后以Manjaro系统作为自己的个人电脑使用,工作得越久越发现自己的工作与Windows没有差点关系

概述
java8是必须的
所有Hadoop的jar都是利用java8的运行时版本进行编译的
多个 服务的默认端口号改变
Hadoop多个端口号已经变了,下面列出主要的
名称| 2.x 端口号 | 3.x 端口号
| :-: | -:
NameNode | 8020 | 9820
NameNode HTTP UI | 50070 | 9870
DataNode | 50010 | 9866
Secondary NameNode HTTP UI | 50090 | 9868
DataNode IPC | 50020 | 9867
DataNode HTTP UI | 50075 | 9864
DataNode | 50010 | 9866
Hadoop3的启动方式变了
后面会讲
其他
个人习惯使用主机名与IP地址映射,然后直接使用主机名在浏览器上访问,好记嘛
主机名与IP地址映射 :
cat /etc/hosts
1
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

添加如下行

192.168.1.101 mo.don.com mo

第一列是IP地址,第二列是主机名,第三列是别名,映射过以后用哪个效果都是一样的,通过Windows远程访问的话Windows下的hosts文件也需要添加IP地址映射,Windows的hosts文件一般在:C:\Windows\System32\drivers\etc
另外记得关闭防火墙

第一步:给安装包添加权限
chmod +x *.tar.gz
1
第二步:解压
tar -zxf hadoop-3.1.0.tar.gz -C /opt/modules/
1
第三步:创建快捷方式
我习惯使用软链接指向它,为什么?方便呗

ln -s /opt/modules/hadoop-3.1.0/ /opt/shortcut/hadoop

第四步:设置环境变量
vim /etc/profile

添加如下内容

Hadoop Environment Available

export HADOOP_HOME=/opt/shortcut/hadoop
export PATH= P A T H : PATH: PATH:HADOOP_HOME/sbin
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin

export HADOOP_MAPRED_HOME= H A D O O P H O M E e x p o r t H A D O O P Y A R N H O M E = HADOOP_HOME export HADOOP_YARN_HOME= HADOOPHOMEexportHADOOPYARNHOME=HADOOP_HOME
export HADOOP_MAPRED_HOME= H A D O O P H O M E e x p o r t H A D O O P C O M M O N H O M E = HADOOP_HOME export HADOOP_COMMON_HOME= HADOOPHOMEexportHADOOPCOMMONHOME=HADOOP_HOME
export HADOOP_HDFS_HOME= H A D O O P H O M E e x p o r t Y A R N H O M E = HADOOP_HOME export YARN_HOME= HADOOPHOMEexportYARNHOME=HADOOP_HOME
export HADOOP_CONF_DIR= H A D O O P H O M E / e t c / h a d o o p e x p o r t Y A R N C O N F D I R = HADOOP_HOME/etc/hadoop export YARN_CONF_DIR= HADOOPHOME/etc/hadoopexportYARNCONFDIR=HADOOP_HOME/etc/hadoop

export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin
export PATH= P A T H : PATH: PATH:HADOOP_HOME/sbin

使用root用户source一下使环境变量生效

source /etc/profile

第五步:修改配置文件
hadoop-env.sh,
yarn-env.sh,
mapred-env.sh

修改JAVA_HOME路径

export JAVA_HOME=/usr/lib/jvm/default

第六步:修改配置文件:core-site.xml
创建Hadoop本地存储临时数据的目录:

mkdir -p /opt/shortcut/hadoop/data/tmp

修改配置文件

fs.defaultFS hdfs://mo.don.com:9820 hadoop.http.staticuser.user dong hadoop.tmp.dir /opt/shortcut/hadoop/data/tmp fs.trash.interval 7200

第七步:修改配置文件hdfs-site.xml
创建Hadoop本地存储namenode和datanode数据的目录

mkdir -p /opt/shortcut/hadoop/data/namenode
mkdir -p /opt/shortcut/hadoop/data/datanode

dfs.permissions.enabled false dfs.replication 2 dfs.namenode.name.dir /opt/shortcut/hadoop/data/namenode dfs.datanode.data.dir /opt/shortcut/hadoop/data/datanode

第八步:修改配置文件yarn-site.xml



yarn.resourcemanager.hostname
mo.don.com



yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.log-aggregation-enable
true


yarn.log-aggregation.retain-seconds
604800

第九步:修改配置文件mapred-site.xml



mapreduce.framework.name
yarn


yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop


mapreduce.map.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop


mapreduce.reduce.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop

第十步:格式化hdfs
hdfs namenode -format
1
第十一步:启动HDFS、Yarn
hdfs --daemon start namenode

hdfs --daemon start datanode

yarn --daemon start resourcemanager

yarn --daemon start nodemanager

yarn --daemon start timelineserver

原来的启动脚本:

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

sbin/yarn-daemon.sh start resourcemanager

sbin/yarn-daemon.sh start nodemanager

sbin/mr-jobhistory-daemon.sh start historyserver

使用原来的脚本也能正常运行,但是会有警告滴

第十二步:验证
查看是否正常启动:

jps

浏览器查看:
http://mo.don.com:9870

Yarn资源调度系统:
http://mo.don.com:8088

OK,至此完成。
————————————————
版权声明:本文为优快云博主「荒野雄兵」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.youkuaiyun.com/daerzei/article/details/80874170

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值