前言
刚刚开始学大数据的时候Hadoop最新版还是2.5.0,现在都已经出到3.1.0了,时间好快啊
Hadoop版本:apache-hadoop3.1.0
Linux操作系统:平时工作的时候都是CentOS6,CentOS7,
这将在archLinux系列的manjaro上部署,命令啊,步骤啊什么的都是一样的。
主要是想以后以Manjaro系统作为自己的个人电脑使用,工作得越久越发现自己的工作与Windows没有差点关系
概述
java8是必须的
所有Hadoop的jar都是利用java8的运行时版本进行编译的
多个 服务的默认端口号改变
Hadoop多个端口号已经变了,下面列出主要的
名称| 2.x 端口号 | 3.x 端口号
| :-: | -:
NameNode | 8020 | 9820
NameNode HTTP UI | 50070 | 9870
DataNode | 50010 | 9866
Secondary NameNode HTTP UI | 50090 | 9868
DataNode IPC | 50020 | 9867
DataNode HTTP UI | 50075 | 9864
DataNode | 50010 | 9866
Hadoop3的启动方式变了
后面会讲
其他
个人习惯使用主机名与IP地址映射,然后直接使用主机名在浏览器上访问,好记嘛
主机名与IP地址映射 :
cat /etc/hosts
1
127.0.0.1 localhost
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
添加如下行
192.168.1.101 mo.don.com mo
第一列是IP地址,第二列是主机名,第三列是别名,映射过以后用哪个效果都是一样的,通过Windows远程访问的话Windows下的hosts文件也需要添加IP地址映射,Windows的hosts文件一般在:C:\Windows\System32\drivers\etc
另外记得关闭防火墙
第一步:给安装包添加权限
chmod +x *.tar.gz
1
第二步:解压
tar -zxf hadoop-3.1.0.tar.gz -C /opt/modules/
1
第三步:创建快捷方式
我习惯使用软链接指向它,为什么?方便呗
ln -s /opt/modules/hadoop-3.1.0/ /opt/shortcut/hadoop
第四步:设置环境变量
vim /etc/profile
添加如下内容
Hadoop Environment Available
export HADOOP_HOME=/opt/shortcut/hadoop
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/sbin
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/bin
export HADOOP_MAPRED_HOME=
H
A
D
O
O
P
H
O
M
E
e
x
p
o
r
t
H
A
D
O
O
P
Y
A
R
N
H
O
M
E
=
HADOOP_HOME export HADOOP_YARN_HOME=
HADOOPHOMEexportHADOOPYARNHOME=HADOOP_HOME
export HADOOP_MAPRED_HOME=
H
A
D
O
O
P
H
O
M
E
e
x
p
o
r
t
H
A
D
O
O
P
C
O
M
M
O
N
H
O
M
E
=
HADOOP_HOME export HADOOP_COMMON_HOME=
HADOOPHOMEexportHADOOPCOMMONHOME=HADOOP_HOME
export HADOOP_HDFS_HOME=
H
A
D
O
O
P
H
O
M
E
e
x
p
o
r
t
Y
A
R
N
H
O
M
E
=
HADOOP_HOME export YARN_HOME=
HADOOPHOMEexportYARNHOME=HADOOP_HOME
export HADOOP_CONF_DIR=
H
A
D
O
O
P
H
O
M
E
/
e
t
c
/
h
a
d
o
o
p
e
x
p
o
r
t
Y
A
R
N
C
O
N
F
D
I
R
=
HADOOP_HOME/etc/hadoop export YARN_CONF_DIR=
HADOOPHOME/etc/hadoopexportYARNCONFDIR=HADOOP_HOME/etc/hadoop
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/bin
export PATH=
P
A
T
H
:
PATH:
PATH:HADOOP_HOME/sbin
使用root用户source一下使环境变量生效
source /etc/profile
第五步:修改配置文件
hadoop-env.sh,
yarn-env.sh,
mapred-env.sh
修改JAVA_HOME路径
export JAVA_HOME=/usr/lib/jvm/default
第六步:修改配置文件:core-site.xml
创建Hadoop本地存储临时数据的目录:
mkdir -p /opt/shortcut/hadoop/data/tmp
修改配置文件
fs.defaultFS hdfs://mo.don.com:9820 hadoop.http.staticuser.user dong hadoop.tmp.dir /opt/shortcut/hadoop/data/tmp fs.trash.interval 7200第七步:修改配置文件hdfs-site.xml
创建Hadoop本地存储namenode和datanode数据的目录
mkdir -p /opt/shortcut/hadoop/data/namenode
mkdir -p /opt/shortcut/hadoop/data/datanode
第八步:修改配置文件yarn-site.xml
yarn.resourcemanager.hostname
mo.don.com
yarn.nodemanager.aux-services
mapreduce_shuffle
yarn.log-aggregation-enable
true
yarn.log-aggregation.retain-seconds
604800
第九步:修改配置文件mapred-site.xml
mapreduce.framework.name
yarn
yarn.app.mapreduce.am.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop
mapreduce.map.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop
mapreduce.reduce.env
HADOOP_MAPRED_HOME=/opt/shortcut/hadoop
第十步:格式化hdfs
hdfs namenode -format
1
第十一步:启动HDFS、Yarn
hdfs --daemon start namenode
hdfs --daemon start datanode
yarn --daemon start resourcemanager
yarn --daemon start nodemanager
yarn --daemon start timelineserver
原来的启动脚本:
sbin/hadoop-daemon.sh start namenode
sbin/hadoop-daemon.sh start datanode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager
sbin/mr-jobhistory-daemon.sh start historyserver
使用原来的脚本也能正常运行,但是会有警告滴
第十二步:验证
查看是否正常启动:
jps
浏览器查看:
http://mo.don.com:9870
Yarn资源调度系统:
http://mo.don.com:8088
OK,至此完成。
————————————————
版权声明:本文为优快云博主「荒野雄兵」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.youkuaiyun.com/daerzei/article/details/80874170