ubuntu服务器端配置hadoop集群

本文详细介绍如何在Ubuntu 64位服务器上配置Hadoop环境,包括安装过程、配置代理服务器、设置静态IP地址、创建Hadoop用户组及用户、格式化及启动Hadoop等关键步骤。

先安装ubuntu64位服务器端。前面没什么难度,直接一步步按照提示点好了(这里我设定的用户名为master,密码xz2013),登录进去之后配置代理服务器步骤如下:

vim  ~/.bashrc 


进入之后按i进入insert模式,在文件最后添加下面的内容:

http_proxy=http://yourproxyaddress:proxyport
export  http_proxy 

添加完成后按esc,输入:wq保存并退出

输入sudo apt-get update 更新源

配置本机ip,以master为例

sudo nano /etc/network/interfaces

添加如下内容

auto eth0
iface eth0 inet static
address 192.168.200.150
netmask 255.255.255.0
gateway 192.168.11.1

修改本机的host文件

 sudo vi /etc/hosts
在最后添加如下:

192.168.200.150 master
192.168.200.151 slave1

更新完成后开始配置hadoop环境

一、创建hadoop组及用户

1.设置root用户密码

sudo passwd root


输入要设定的root的密码,修改成功

2.切换到root用户

su -


3.修改主机名hostname为master

vi /etc/hostname

将用户名改为master后保存并退出

reboot

重启ubuntu,用root用户进入

4.创建hadoop用户组及用户

addgroup hadoop
aaduser --ingroup hadoop hadoop

5. 给hadoop用户赋予root权限

赋予修改/etc/sudoers 文件的权限

chmod u+w /etc/sudoers

修改 /etc/sudoers 文件

vi /etc/sudoers

在root   ALL=(ALL:ALL)   ALL下添加hadoop   ALL=(ALL:ALL)  ALL



二、之后的步骤参照http://blog.youkuaiyun.com/daytimemoon/article/details/8672756

 

区别:

安装hadoop时第10步,打开conf/masters文件,添加作为secondarynamenode的主机名,编辑masters文件将localhost改为master

sudo gedit hadoop/conf/masters

第11步,  打开conf/slaves文件,添加作为slave的主机名,一行一个

sudo gedit hadoop/conf/slaves

修改为如下:

slave1

slave2(如果配置两个datanode)


三、在虚拟机上克隆hadoop1,修改hostname,ip地址,测试ssh

ssh slave1

输入yes,测试成功



删除slave的hadoop文件夹里的data*,datalog*文件夹

sudo rm -rf data*

四、启动hadoop

1.格式化

cd /usr/local/hadoop
bin/hadoop namenode -format


2.启动所有服务

 bin/start-all.sh

3.查看datanode是否启动

 jps


4.查看连接情况:

bin/hadoop dfsadmin -report


### Hadoop 多节点集群配置指南 #### 1. 环境准备 在开始之前,确保每台机器都已安装好 Java 和 SSH 工具,并且能够通过无密码方式访问其他节点。这一步可以通过配置 `~/.ssh/id_rsa` 文件实现[^1]。 #### 2. 主机名与 IP 地址映射 编辑 `/etc/hosts` 文件,在所有节点上添加 Master 和 Slave 节点的主机名及其对应的 IP 地址。例如: ```plaintext 192.168.1.1 master 192.168.1.2 slave1 192.168.1.3 slave2 ``` 此操作有助于简化网络通信过程[^2]。 #### 3. 修改 Hadoop 配置文件 进入 Hadoop配置目录(通常位于 `$HADOOP_HOME/etc/hadoop`),修改以下几个关键文件: ##### (a) core-site.xml 定义 NameNode 的地址以及默认文件系统路径。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> </configuration> ``` ##### (b) hdfs-site.xml 指定副本数量和其他存储参数。 ```xml <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> </configuration> ``` 这里假设我们有两台数据节点服务器参与复制[^3]。 ##### (c) mapred-site.xml 设置 MapReduce 框架运行模式为 YARN。 ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` ##### (d) yarn-site.xml 调整 ResourceManager 设置以便更好地管理资源分配。 ```xml <configuration> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> </configuration> ``` #### 4. 同步配置到所有节点 利用 SCP 命令将更新后的配置同步至各个 DataNodes 上面去。比如可以这样写脚本批量处理: ```bash for node in $(cat slaves); do scp $HADOOP_HOME/etc/hadoop/* ${node}:$HADOOP_HOME/etc/hadoop/; done; ``` #### 5. 初始化并启动服务 回到主控端即 Master 执行初始化命令创建必要的目录结构之后再开启全部的服务进程。 ```bash hdfs namenode -format start-dfs.sh start-yarn.sh ``` 当完成整个流程测试完毕确认正常工作状态后记得按照需求停止相关组件以防浪费计算能力或者意外情况发生时影响实验结果评估准确性: ```bash stop-yarn.sh stop-dfs.sh sudo shutdown now # 关闭虚拟机实例 ``` ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值