Linux(CentOS)上的Hadoop安装
-
注意:执行以下步骤我们都用非root账号,不要问为什么不用root账号,我拒绝回答-。-,非root账号是没有在根目录/下rwx的权限的,那么怎么用他执行我们需要的命令呢,在每条命令前加上sudo;当然友情提示
- 如果你是在装CentOS时,创建的非root账号,勾上管理员权限的小勾就可以使用sudo -f 文件名
- 但是如果你是自己用命令新建的用户,要去/etc/sudoers文件中加上一段
- 注意:该文件只能用visudo命令打开
- 在root ALL = (ALL)ALL行下加上(比如新建用户名为tutu)
- tutu ALL=(ALL) ALL
-
sudo的具体操作参考这篇博客:https://www.cnblogs.com/henrylinux/p/9746835.html
-
以下操作用的用户名是centos
1. hadoop环境安装
1.1 安装jdk
-
1.注意:如果你安装的CentOS不是Min版本,可能Linux自带jdk,你需要先卸载它 1.1 查询系统是否安装了jdk命令:yum list installed | grep java 1.2 卸载以java开头:比如sudo yum remove java-1.8.0-openjdk... 1.3 如果卸载不了,查看是否在后台运行,强制杀死进程,再执行1.2步骤 a)下载jdk-8u65-linux-x64.tar.gz(以你安装的linux版本为准,如果你安装的是32位,那么jdk也下载32位的,下载网站:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html;这里我推荐在window上进行下载,然后用SecureCRT上传到Linux) b)tar开 $>su centos ; $>cd ~ $>mkdir downloads $>cp /mnt/hdfs/downloads/bigdata/jdk-8u65-linux-x64.tar.gz ~/downloads #这里是把下载的jdk移到downloads文件夹中 $>tar -xzvf jdk-8u65-linux-x64.tar.gz c)创建/soft文件夹,把soft的拥有权设置为centos用户 $>sudo mkdir /soft $>sudo chown centos:centos /soft d)移动tar开的文件到/soft下 $>mv ~/downloads/jdk-1.8.0_65 /soft/ e)创建符号连接,相当window中的快捷方式 $>ln -s /soft/jdk-1.8.0_65 /soft/jdk f)验证jdk安装是否成功 $>cd /soft/jdk/bin $>./java -version
1.2 配置jdk环境变量
-
1.编辑/etc/profile;这里用nano编辑文件,你也可以vi $>sudo nano /etc/profile ... export JAVA_HOME=/soft/jdk export PATH=$PATH:$JAVA_HOME/bin 2.使环境变量即刻生效 $>source /etc/profile 3.进入任意目录下,测试是否ok $>cd ~ $>java -version #命令有返回版本信息,则成功
2. 安装Hadoop
2.1 安装hadoo
-
1.安装hadoop a)下载hadoop-2.7.3.tar.gz b)tar开 $>su centos ; cd ~ $>cp /mnt/hdfs/downloads/bigdata/hadoop-2.7.3.tar.gz ~/downloads $>tar -xzvf hadoop-2.7.3.tar.gz c)无(如果没有创建soft文件,参照上面步骤) d)移动tar开的文件到/soft下 $>mv ~/downloads/hadoop-2.7.3 /soft/ e)创建符号连接 $>ln -s /soft/hadoop-2.7.3 /soft/hadoop f)验证jdk安装是否成功 $>cd /soft/hadoop/bin $>./hadoop version #命令有返回版本信息,则成功 2.配置hadoop环境变量 $>sudo nano /etc/profile ... export JAVA_HOME=/soft/jdk exprot PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/soft/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 3.生效 $>source /etc/profile 4.执行 hadoop version 验