1、下载hadoop
http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/
hadoop-2.7.1.tar.gz
2、创建一个 专门用来 操作hadoop的 用户组 和 用户
sudo addgroup hadoop
sudo adduser -ingroup hadoop hadoop
一直回车,直到确认信息,输入y
修改用户权限:
sudo vim /etc/sudoers
输入
# User privilege specification
root ALL=(ALL:ALL) ALL
hadoop ALL=(ALL:ALL) ALL
# Members of the admin group may gain root privileges
3、安装ssh
安装 ssh :sudo apt-get install openssh-server
用下面这个命令查看 是否启动成功
ps -e | grep ssh
安装完成之后,一般是自动启动了,如果没有,则自行启动
sudo /etc/init.d/ssh start
4、免密码ssh登陆
cd ~/.ssh/
如果没有该文件夹,则 ssh loaclhost登陆一次,则自动生成了
ssh-keygen -t rsa
生成 公钥和私钥,密码为空,直接回车几次就行了
cat id_rsa.pub >> authorized_keys
然后把 公钥加入许可当中,当然,也要把其他的slave的公钥 也加入其中
再用ssh localhost 或者 ssh slave_ip 去测试 是否可以免密码登陆了。 同样,从机也要把这个 许可拷贝过去。
5、配置java环境
export JAVA_HOME=/home/hadoop/jdk1.7.0_71
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
6、安装hadoop
tar -zxvf hadoop-2.7.1.tar.gz
我就装在 ~/ 目录下的,我不知道为什么其他教程都写的装 /usr/loacl/ 下面
7、修改配置文件 /etc/hadoop 中
192.168.3.130 为我本机ip
192.168.3.131 为我的从机ip
用 /etc/hosts 里面配置的 hostname 来充当也行
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.3.130:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/hadoop-2.7.1/tmp</value>
</property>
hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/hadoop-2.7.1/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/hadoop-2.7.1/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.3.130:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.3.130:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.3.130:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.3.130:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.3.130:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.3.130:8088</value>
</property>
<property>
<name>yarn.nodemanager.resource.memory-mb</name>
<value>768</value>
</property>
hadoop-env.sh
这个主要是 修改 JAVA_HOME 的的值
export JAVA_HOME=/home/hadoop/jdk1.7.0_71
yarn-env.sh
export JAVA_HOME=/home/hadoop/jdk1.7.0_71
8、初始化一下 bin/hdfs namenode -format
9、相关配置 发到从机
scp -r /home/hadoop/hadoop-2.7.1 hadoop@192.168.3.131:/home/hadoop/
/sbin/start-all.sh 启动
/sbin/stop-all.sh 停止
访问 192.168.3.130::8088 查看