hadoop伪分布式集群的搭建

本文详细介绍如何在Centos6.5环境下,使用Hadoop-2.6.1和JDK1.8.0_161搭建Hadoop伪分布式集群,包括配置静态IP、设置sudo权限、SSH免登录、修改环境变量及核心配置文件等步骤。

集群配置:

jdk1.8.0_161

hadoop-2.6.1

linux系统环境:Centos6.5

创建普通用户  dummy 

设置静态IP地址

Hadoop伪分布式集群搭建:

为普通用户添加sudo权限:

设置之前必须得安装sudo,先su  输入密码进入root用户,执行 yum  install sudo

安装完后修改sudo配置文件  vi /etc/sudoers 

进入配置文件,输入/root 查找root  按N下一个,直到找到

原本只有一行的,下面是自己复制上面的,改一下用户名,添加完成按Esc   再输入:wq保存退出

注意:修改只读文件时,可以先 chmod u+w 只读文件名 修改文件的权限(u代表用户,+w代表增加可写),修改完之后再 chmod u-w 只读文件名 还原权限

服务器网络设置NAT模式

SecureCRT远程连接:

域名设置:  vi /etc/hosts

 

主机名设置:

root身份:vi /etc/sysconfig/network

普通用户身份:sudo vi /etc/sysconfig/network

重启服务器init 6

SSH免登录配置:

如果没有就创建.sshmkdir .ssh

cd .ssh进入.ssh

rm -rf *删除所有文件

输入ssh-keygen -t rsa,敲三次回车

然后ssh-copy-id master   输入yes  再输入密码

关闭防火墙:

进入root,chkconfig iptables --list 查看防火墙

chkconfig iptables off 关闭防火墙(每台主机都关掉)

修改环境变量:

vi ~/.bash_profile

最后

 

保存退出后要 source ~/.bash_profile 让配置文件生效

修改配置文件:

进入hadoop的安装目录

 

伪分布式的hadoop集群
1、编辑etc/hadoop/core-site.xml
<configuration>
<property>
<!-- 指定HDFS中NameNode的地址 -->
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<!-- 指定hadoop临时目录 -->
<property>
<name>hadoop.tmp.dir </name>
<value>/home/dummy/app/hadoop-2.6.1/hdpdata</value>
</property>
</configuration>

 

2、编辑etc/hadoop/hdfs-site.xml
 <configuration>
<!-- 指定HDFS副本的数量,默认为3 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
 </configuration>
3、编辑etc/hadoop/hadoop-env.sh

修改JAVA_HOME的路径

 4、编辑etc/hadoop/slaves

#指定在哪几台机启动datanode, 伪分布写一个就可以了(namenode和datanode在同一主机)

master                

第一次启动hdfs,首要进行格式化处理,在/bin目录下
  hdfs namenode -format

启动hdfs,首先启动namenode,/sbin目录下
 hadoop-daemon.sh  start namenode

再启动datanode    /sbin目录下
 hadoop-daemon.sh  start datanode

通过jps,查看进程,是否存在namenode和datanode的进程

 

转载于:https://www.cnblogs.com/dummyly/p/10005283.html

### Hadoop伪分布式集群搭建教程 Hadoop 是一种用于处理大规模数据集的开源框架,支持在廉价硬件组成的大型集群上运行应用程序。对于初学者来说,可以通过构建伪分布式环境来熟悉其工作方式。 #### 1. 安装 Java 开发工具包 (JDK) Hadoop 运行依赖于 JDK,因此需要先安装并配置好 JDK 的环境变量。以下是具体操作步骤: - 下载适合系统的 JDK 版本,并完成安装。 - 编辑 `~/.bashrc` 文件以设置 JAVA_HOME 变量: ```bash export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export PATH=$PATH:$JAVA_HOME/bin ``` - 执行命令使更改生效: ```bash source ~/.bashrc ``` 验证是否成功安装 JDK 并将其加入环境变量中[^2]。 #### 2. 下载与解压 Hadoop 软件包 下载最新版本的 Hadoop 压缩包至本地计算机,并将其解压缩到指定位置。例如: ```bash tar -zxvf hadoop-3.3.0.tar.gz -C /opt/ cd /opt/hadoop-3.3.0 ``` #### 3. 修改核心配置文件 core-site.xml 此文件定义了客户端连接 NameNode 和 DataNode 的基本参数。进入 `/etc/hadoop/core-site.xml` 后添加如下内容: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 这一步骤指定了默认文件系统为 HDFS,并设定了名称节点监听端口为 9000[^1]。 #### 4. 配置 hdfs-site.xml 文件 该文件主要用于设定 HDFS 数据块大小以及副本数量等属性。同样位于 `/etc/hadoop/` 目录下,修改后的样例代码如下所示: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 这里我们将复制因子调整成 1 来适应单机环境下资源有限的情况[^3]。 #### 5. 设置 MapReduce 框架相关选项 mapred-site.xml 如果发现当前目录不存在名为mapred-site.xml模板,则可以从备份文件重命名得到它;然后按照下面的方式填写字段信息即可满足需求: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` #### 6. 更新 yarn-site.xml 中 YARN 参数 最后还需关注 ResourceManager 地址和服务启动顺序等问题,在相应部分追加以下条目实现自动化管理功能: ```xml <configuration> <!-- Reducer 获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!-- NodeManager 上内存总量限制,默认单位 MB--> <property> <name>yarn.scheduler.maximum-allocation-mb</name> <value>8192</value> </property> ... </configuration> ``` #### 7. 初始化 HDFS 文件系统 执行初始化命令前需确保所有必要的改动都已经保存完毕,接着输入下列指令创建根目录结构: ```bash bin/hdfs namenode -format ``` #### 8. 启动服务进程 依次开启各个组件对应的守护线程以便正常使用整个平台的各项能力: ```bash sbin/start-dfs.sh sbin/start-yarn.sh ``` 至此已完成基于 Linux 系统之上部署简易版 Hadoop 单节点模拟群组的操作流程说明^。 ```python print("Congratulations! Your pseudo-distributed cluster has been set up successfully.") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值