安装单机模式hadoop的流程

本文详细介绍了如何在Ubuntu9.10系统上安装并配置Hadoop环境,包括安装SSH服务、JDK、Hadoop组件、配置相关文件、格式化HDFS及启动Hadoop集群的过程。
安装环境:
Ubuntu 9.10
hadoop 0.20.2

1.安装ssh服务

1) sudo apt-get install openssh-server
2) 生成key用于 ssh localhost 的时候不用输入密码
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

这时候,如果提示:Agent admitted failure to sign using the key.
$ ssh-agent
$ ssh-add id_rsa //这行在~/.ssh/内执行的

3) ssh local
如果提示: ssh: connect to host 133.133.133.65 port 22: Connection refused
方法一(推荐):
修改/etc/passwd文件,在其中加入
sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin
参考
http://www.unixguide.net/comments/sun/ssh_installation.shtml/37.shtml
http://www.gipsky.com/modules/newbb/viewtopic.php?topic_id=966

方法二(不推荐):
修改/etc/ssh/sshd_config文件
将其中
UsePrivilegeSeparation yes
修改为
UsePrivilegeSeparation no
虽然能解决问题,但是降低了ssh的安全级别

4)这时候 ssh local 真的不需要密码就可以登录了..

2.安装jdk

这个就不需要说了..配出来java -v就行了

3.安装hadoop

1)解压到/opt/hadoop

$ tar zxvf hadoop-0.20.2.tar.gz
$ sudo mv hadoop-0.20.2 /opt/
$ sudo chown -R hadoop:hadoop /opt/hadoop-0.20.2
$ sudo ln -sf /opt/hadoop-0.20.2 /opt/hadoop


4.配置 hadoop-env.sh

1)在hadoop/conf 里面hadoop-env.sh增加

export JAVA_HOME=/usr/jdk1.6.0.18
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:/opt/hadoop/bin


5.配置文件

1)編輯 /opt/hadoop/conf/core-site.xml

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop/hadoop-${user.name}</value>
</property>
</configuration>


2)編輯 /opt/hadoop/conf/hdfs-site.xml

<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>


3)編輯 /opt/hadoop/conf/mapred-site.xml

<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>


6.格式化hdfs

$ cd /opt/hadoop
$ source conf/hadoop-env.sh
$ hadoop namenode -format

提示信息一大堆...


7.启动hadoop

$ sudo ./start-all.sh //在hadoop/bin下执行


8.完成后的测试

http://localhost:50030/ - Hadoop 管理接口


后续还会继续补充...............
### 单机模式下在 VirtualBox 中安装 Hadoop #### 准备工作 为了顺利进行Hadoop单机模式安装,在VirtualBox中创建并配置好Ubuntu虚拟机是必要的前提条件。确保已经按照相关指南完成了Linux Ubuntu虚拟机的设置,并且能够正常启动运行。 #### 配置网络连接 确认虚拟机中的网络适配器已正确配置,以便后续可以访问互联网下载所需资源以及与其他设备通信。通常建议采用NAT或桥接方式来实现良好的联网性能[^1]。 #### 下载与解压Hadoop压缩包 前往Apache官方网站获取最新稳定版本的Hadoop二进制分发版ZIP/TAR.GZ文件。将其上传至虚拟机内部并通过命令行工具tar解开到指定位置: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-3.2.0/hadoop-3.2.0.tar.gz tar -xzvf hadoop-3.2.0.tar.gz -C /usr/local/ ``` #### 修改环境变量 编辑`~/.bashrc`文件以永久性地向PATH路径添加Hadoop主目录下的bin子目录,从而可以在任何地方执行hdfs dfs等指令而无需输入完整路径: ```bash export PATH=$PATH:/usr/local/hadoop/bin source ~/.bashrc ``` #### 更改所有权 为了让特定用户拥有对整个Hadoop文件夹及其内容的操作权限,需调整其所属关系为当前登录账户名(假设这里用户名也为"hadoop") : ```bash sudo chown -R hadoop:hadoop /usr/local/hadoop ``` #### 编辑核心配置文件core-site.xml 进入`$HADOOP_HOME/etc/hadoop/`目录内定位到名为core-site.xml的核心站点XML文档,依据实际需求修改其中<configuration>标签内的参数项如下所示: ```xml <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> ``` #### 编辑HDFS配置文件 hdfs-site.xml 同样是在上述etc/hadoop/ 文件夹里找到另一个重要的配置文件——hdfs-site.xml ,为其增加必要属性定义: ```xml <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/data/nameNode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/hadoop/data/dataNode</value> </property> ``` #### 初始化NameNode节点元数据 切换回终端界面,通过下面这条语句初始化namenode上的命名空间结构体: ```bash hdfs namenode -format ``` #### 启动服务进程 最后一步就是利用start-dfs.sh脚本来激活所有必需的服务组件了;此时应该能看到控制台打印出成功消息表示集群已经开始运作: ```bash start-dfs.sh ``` 以上就是在VirtualBox环境下针对单一主机部署简易版Hadoop框架的具体流程概述[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值