hadoop学习【5】——搭建伪分布式hadoop平台

本文介绍了如何在32位CentOS环境下安装配置JDK及搭建伪分布式Hadoop平台的全过程,包括解决过程中遇到的问题。

hadoop学习【5】——搭建伪分布式hadoop平台

前言今天没事,想想这在机房搭建好的hadoop平台也不能跟着我走,学习hadoop也不方便,所以本着学习方便,所以在我自己的机子上部署个伪分布式的hadoop平台,刚刚跑起来了,所以写一篇博客跟大家分享下怎么去部署一台属于自己的所谓的hadoop平台。

一、环境介绍:

(1)硬件环境:我的机子是4G内存的,500G硬盘

(2)软件环境:虚拟机环境下的CentOS5.3  32位操作系统(这个系统貌似还有点问题,我前面在台式机上单独装的时候,会出现读不了物理网卡的情况,推荐大家装6.4的版本或以上的吧),机子本身是java的jdk的,但是版本过低。

二、JDK安装配置:

(1)jdk下载:这里一定要注意要下对应的JDK,32位还是64位,一定要看好,不要白忙活半天

(2)jdk配置:我这里下载的是jdk1.8.0_05,放在/usr目录下,

配置:vi /etc/profile,如下图,在下面接着加上如下内容,注意,目录结构应该跟你本机相对应

但是这个时候,如果你敲java或者javac会发现还是原来内置的jdk版本,或者根本找不到命令,因为还少了一件事没有做:

其中的source /etc/profile一定要写,让profile立即生效

但是,这里大家可以看到,我写了依旧出错,这个显示意味着版本不对,因为我在32位机器上装了64为的jdk

然后我换64位安装,还是安装上面的步骤即可,这个时候出现的问题如下:

这是selinux的设置的问题,修改下面的文件即可:

然后重启一下系统即可。

好现在输入java和javac都会有相应的正确的显示了。

三、hadoop安装配置

(1)hadoop下载:这里我依旧使用的hadoop-1.1.2

(2)hadoop配置(还是常规的配置):

这里masters和slaves文件不需要改,因为根本就没有第二个结点了,自己就是自己的datanode

同样/etc/hosts也是不需要修改的

(3)免密码配置:这里相对于配置多台机子来说又要简单很多

只需要使用ssh-keygen -t rsa,一路enter即可,然后将id_rsa.pub复制到当前目录下的authorized.keys

然后测试一下:ssh localhost,不需要密码

OK,hadoop配置结束!!!

四、测试:

OK!!!大功告成


### 配置Hadoop集群 在同一台机器上配置Hadoop集群主要涉及几个关键步骤来确保各个组件能够正确交互。首先,需要准备必要的基础环境,这包括但不限于安装JDK、配置SSH无密码登录等操作[^2]。 对于Hadoop本身而言,在单机环境下模拟多节点集群的关键在于编辑位于`etc/hadoop`目录下的多个XML格式的配置文件。具体来说: - `hadoop-env.sh`: 设置Java环境变量; - `core-site.xml`: 定义HDFS默认路径和其他全局参数; - `hdfs-site.xml`: 指定NameNode和DataNode的具体位置及相关属性; - `yarn-site.xml`: YARN框架的相关设定; - `mapred-site.xml`: MapReduce作业执行方式的选择等[^1]。 通过调整上述文件中的相应条目,可以实现让一台物理设备扮演不同角色的效果,从而构建起所谓的“伪分布”模式——即表面上看起来像是由若干独立计算机组成的网络但实际上所有进程都在同一硬件平台上运行。 #### Hadoop伪分布式配置实例 ```xml <!-- core-site.xml --> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> <!-- hdfs-site.xml --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` ### Spark伪分布式环境设置 接着是关于Spark的部分。为了使Spark能够在本地以类似于真实生产环境中那样工作,除了要保证它能访问到已经部署好的Hadoop服务外,还需要做一些额外的工作。比如修改`conf/spark-env.sh`脚本加入SPARK_MASTER_HOST等相关环境变量,并创建或更新slaves列表指向当前主机名称或者IP地址[^4]。 另外值得注意的是命令行工具的位置可能有所不同;例如在某些版本中可能是`sbin/start-master.sh`而不是直接使用`./bin/spark-shell`启动Shell会话之前先开启Master节点的服务[^3]。 #### 启动Spark Master 和 Worker 节点 ```bash # 开启Master服务 sbin/start-master.sh # 注册Worker至该Master下 sbin/start-worker.sh spark://localhost:7077 ``` 最后一步就是验证整个系统的可用性了,可以通过浏览器查看Web UI界面确认各部分状态是否正常,也可以尝试提交简单的应用程序测试连通性和性能表现。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值