hadoop学习环境搭建

无密码登录

生成密匙:
ssh-keygen  -t  rsa
上传密匙:
ssh-copy-id -i ~/.ssh/id_rsa.pub chen@192.168.1.100
远程登录:
ssh 用户名@主机名
ssh 主机名

分发文件

scp /home/chen/app/hadoop/etc/hadoop/core-site.xml  hadoop105:/home/chen/app/hadoop/etc/hadoop/core-site.xml
scp 待分发文件绝对路径  主机名:绝对路径

普通用户具有sudo权限

# vim /etc/sudoers

修改主机名

# vim /etc/sysconfig/network
# sudo hostname itcast

NETWORK = yes
HOSTNAME = itcast

修改主机和ip映射

# vim /etc/hosts

192.168.0.1 itcast


安装 jdk

http://blog.youkuaiyun.com/fuyuwei2015/article/details/73195936

1. 卸载

查看已经安装的jdk

[root@bogon jre]# rpm -qa|grep jdk
java-1.8.0-openjdk-headless-1.8.0.65-3.b17.el7.x86_64
java-1.7.0-openjdk-1.7.0.91-2.6.2.3.el7.x86_64
java-1.7.0-openjdk-headless-1.7.0.91-2.6.2.3.el7.x86_64
java-1.8.0-openjdk-1.8.0.65-3.b17.el7.x86_64
 
  • 1
  • 2
  • 3
  • 4
  • 5

2. 卸载命令

[root@bogon jre]# yum -y remove java-1.8.0-openjdk-headless-1.8.0.65-3.b17.el7.x86_64
 
  • 1

卸载完成之后Java命令不被识别

[root@bogon lib]# java -version
 
  • 1

3. 安装

去官网下载jdk:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
解压到安装目录

[root@bogon software]# tar -zxvf jdk-8u101-linux-x64.tar.gz -C /usr/local/java/
 
  • 1

安装完毕之后在/etc/profile文件末尾添加

[root@bogon software]# vim /etc/profile
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
 
  • 1
  • 2
  • 3
  • 4
  • 5

使/etc/profile生效

[root@bogon jdk1.8.0_101]# source /etc/profile
 
  • 1

Hadoop - 2.7.5 修改配置文件

下载 hadoop

http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.5/hadoop-2.7.5.tar.gz

解压到 /data/ 下面

 
  • 1
  • 2
  • 3
  • 4

修改配置文件

位置:/data/hadoop-2.7.5/etc/hadoop/

 
  • 1
  • 2

1. hadoop_env.sh

export JAVA_HOME=$JAVA_HOME
改成固定的路径  因为容易找不到
export JAVA_HOME=/usr/local/java/jdk1.8.0_161
 
  • 1
  • 2
  • 3

2. core-site.xml

<configuration>
        <property>
                <name>fs.defaultFS</name>       <!-- 默认的文件系统-->
                <value>hdfs://hadoop1:9000/</value> <!-- 协议://主节点 -->
        </property>
        <property>
                <name>hadoop.tmp.dir</name>     <!--数据存放目录-->
                <value>/data/hadoop-2.7.5/data/</value>
        </property>
</configuration>
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

3.hdfs-site.xml

<configuration>
	<property>
                <name>dfs.namenode.name.dir</name><!--namenode节点目录-->
                <value>/home/chen/app/data1</value>
        </property>
        <property>
                <name>dfs.hosts</name><!--datanode节点地址-->
                <value>hadoop102,hadoop103,hadoop104</value>
        </property>
         <property>
                <name>dfs.blocksize</name><!--存储块大小-->
                <value>268435456</value>
         </property>
         <property>
                <name>dfs.namenode.handler.count</name><!--连接线程的数量-->
                <value>100</value>
         </property>
        <property>
                <name>dfs.datanode.data.dir</name><!--数据节点的目录-->
                <value>/home/chen/app/data</value>
        </property>
        <property>
                <name>dfs.replication</name> <!--存放副本的数量-->
                <value>3</value>
        </property>
</configuration>

4. mapred-site.xml

<configuration>
        <property>
                <name>mapreduce.framework.name</name>   <!--把jar包放到那个容器里面去跑-->
                <value>yarn</value>
        </property>
</configuration>
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

5. yarn.site.xml

<configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop1</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>

</configuration>
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11

6. 添加环境变量

/etc/profile

export HADOOP_HOME=/data/hadoop-2.7.5
export PATH=${HADOOP_HOME}/sbin:${HADOOP_HOME}/bin:$PATH
 
  • 1
  • 2

7. 启动

// 第一次启动先格式化
hadoop namenode -format

// 启动 hdfs
start-dfs.sh

// 启动 yarn框架
start-yarn.sh


//上传文件到dfs上
hadoop fs -put jdk-8u161-linux-x64.tar.gz hdfs://hadoop1:9000/

//下载文件从dfs上
hadoop fs -get hdfs://hadoop1:9000/jdk-8u161-linux-x64.tar.gz  
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值