hadoop的搭建

one night in Beijing,地铁挤得要命.........

重新梳理下hadoop的搭建吧,毕竟有人说过,没搭过4、5遍hadoop的人不能算是真的会搭建

这次搭建的方法是利用VMWare10CentOS的虚拟机环境,因为有些人感觉利用Linux的vi编辑不好用,所以我们可以利用winscp来对几个配置文件内容进行修改。

下面是搭建的过程:

1.修改主机名

 

1.1查看主机名:  hostname

1.2修改主机名:  vi /etc/sysconfig/network

1.3将主机名hostname与ip绑定:  vi /etc/hosts,增加一行内容例如:

  192.168.80.100   hadoop验证:ping hadoop

 

2.关闭防火墙

 

2.1查看防火墙状态:service iptables status

2.2关闭:service iptables stop

2.3关闭防火墙自动启动功能:chkconfig iptables off

 

3.设置ssh无密码登陆

 

3.1产生秘钥:ssh-keygen -t rsa 位于~/.ssh文件夹

3.2cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

3.3验证:ssh localhost

exit (localhost退出)

exit (终端退出)

 

4.安装jdk

 

4.1用winscp将hadoop压缩包和jdk复制到/root/Downloads目录下

4.2  cd /usr/local

    rm -rf *  (删除所有)

4.3复制文件:  cp /root.Downloads/*  .

4.4给文件添加执行权限:chmod u+x jdk-6u24-linux-i586.bin

4.5安装jdk:  ./jdk-6u24-linux-i586.bin

4.6重命名:mv jdk1.6.0_24  jdk

4.5配置变量:vi etc/profile

  在# /etc/profile下添加export JAVA_HOME=/usr/lcoal/jdk

                        export PATH=.:$JAVA_HOME/bin:$PATH

  保存退出之后执行命令  source /etc/profile  让文件生效

  java -version检查jdk信息

 

5.安装hadoop

 

5.1解压:tar -zxvf hadoop-1.1.2.tar.gz

5.2重命名:mv hadoop-1.1.2  hadoop

5.3配置到环境中:vi etc/profile

  在# /etc/profile下添加export HADOOP_HOME=/usr/local/hadoop

  将export PATH=.:$JAVA_HOME/bin:$PATH

  修改为export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

  保存退出之后执行命令  source /etc/profile  让文件生效

5.4修改/usr/local/hadoop/conf下的配置文件hadoop-env.sh、core-site.xml

  hdfs-site.xml、mapred-site.xml(参考博客,用winscp改,注意主机名的区别)

 

6.运行

 

6.1格式化:hadoop  namenode  -format

6.2启动:start-all.sh

6.3检查进程启动情况:jps

6.4更改hosts文件:/system32/drivers/etc  添加一行:192.168.80.100  hadoop

 

        然后可以在windows下访问   hadoop:50030   hadoop:50070 检查mr任务执行情况

 

以上是单机情况下的伪分布式搭建,至于真正的集群搭建的注意事项等以后总结了在 继续更新博客。

补充:网上的介绍ssh的文章:http://www.ruanyifeng.com/blog/2011/12/ssh_remote_login.html

          安装pig hbase hive可以用wget 例如:

          wget http://archive-primary.cloudera.com/cdh5/cdh/5/hadoop-2.3.0-cdh5.0.2.tar.gz(需要下载的文件地址)

### 搭建Hadoop集群所需步骤 #### 准备工作环境 为了构建稳定可靠的Hadoop集群,需先准备好运行环境。使用VMware创建两个虚拟机作为节点来部署Hadoop集群是一个常见做法[^1]。建议选用Ubuntu操作系统版本,如Ubuntu 16.04 LTS。 #### 配置网络与主机名 确保各台机器能够通过私有IP地址互相通信,并设置好每台服务器的固定主机名称。编辑`/etc/hosts`文件,在所有节点上添加其他节点的映射关系。 #### 关闭防火墙服务 为简化配置过程并减少潜在冲突,可以暂时关闭各个节点上的防火墙服务。对于Ubuntu系统而言,可通过命令`sudo ufw disable`实现此操作。 #### 安装Java环境 由于Hadoop基于Java开发,因此需要预先安装JDK。推荐采用官方提供的OpenJDK或者Oracle JDK版本。可以通过包管理器apt-get轻松完成安装: ```bash sudo apt update && sudo apt install openjdk-8-jdk -y ``` #### 下载并解压Hadoop软件包 前往Apache官方网站下载最新稳定版Hadoop压缩包,上传至任意一台主控节点后进行解压处理。通常会将其放置于`/usr/local/hadoop`目录下以便管理和维护。 #### 修改核心配置文件 进入解压后的Hadoop目录下的`etc/hadoop`子目录中找到几个重要的XML格式配置文档,按照实际需求调整参数设定。主要涉及以下几个方面: - `core-site.xml`: 设置HDFS默认存储路径以及RPC连接端口等基本信息; - `hdfs-site.xml`: 规定NameNode和DataNodes之间交互细节,比如副本数量、临时数据保存位置等等; - `mapred-site.xml`: 明确MapReduce框架执行模式,默认情况下应指向YARN资源调度平台; - `yarn-site.xml`: 描述ResourceManager及其辅助组件的工作方式,包括内存分配策略等内容; #### 初始化分布式文件系统(HDFS) 当上述准备工作完成后,则可以在主控节点上启动初始化命令以建立初始状态的命名空间结构: ```bash $HADOOP_HOME/bin/hdfs namenode -format ``` #### 启动整个集群服务 最后一步就是依次开启各类守护进程了。借助脚本工具可一次性激活所有必要的后台程序: ```bash start-dfs.sh # 开启HDFS相关服务 start-yarn.sh # 启用YARN计算框架 mr-jobhistory-daemon.sh start historyserver # 如果需要支持MRV2的话还需单独打开历史记录服务器 ``` 此时便成功组建了一个简易但功能完备的小型Hadoop集群环境。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值