CentOS下安装Hadoop单机版

1.先安装JDK

因为Hadoop需要在JAVA环境下运行,所以在安装之前需要先安装JDK

JDK安装步骤:

1)如果CentOS已自带低版本JDK,请先将其卸载。

2)在官网http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html下载jdk-7u79-linux-x64.rpm(64位系统,也可选32位)。

3)在/usr下新建java目录:mkdir /usr/java

4)将下载的安装文件复制到usr/java目录下

5)安装jdk:rpm -ivh jdk-7u79-linux-x64.rpm。

6)配置环境变量:vi /etc/profile

在文件中加入:

exportPATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL

exportJAVA_HOME=/usr/java/jdk1.7.0_60

exportPATH=$JAVA_HOME/bin:$PATH

exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

让环境变量生效: source /etc/profile

7)到这里JDK就安装配置完成了,可通过java -version指令查看当前的java版本。


 

2.SSH无密码验证配置

因为Hadoop需要使用SSH协议,为了避免不停的输入密码,将SSH配置成无密码验证。

SSH无密码验证配置步骤:

1)生成密钥对:[root@localhost ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa


通过以上命令将在/root/.ssh/目录下生成id_dsa私钥和id_dsa.pub公钥。


2)进入/root/.ssh目录在namenode节点下做如下配置:[root@localhost.ssh]# cat id_dsa.pub > authorized_keys

3)可以用键入sshlocalhost命令来看已经连接:此时用ssh进入localhost已经不需要密码了。


 

 

3.安装Hadoop

本次安装和配置的是hadoop单机版,主要是为了了解hadoop的安装过程和基本的操作。

hadoop单机安装与配置步骤:

1)首先从官网http://hadoop.apache.org/releases.html下载安装文件包,我下载的是2.6.0版本的hadoop-2.6.0.tar.gz。

2)在usr下创建文件夹hadoop: mkdir hadoop(这个路径可自行选择)

3)将下载的tar.gz安装包解压到/usr/hadoop目录下:tar -zxvf hadoop-2.6.0.tar.gz /usr/hadoop

4)进入/usr/hadoop/etc/hadoop/下修改hadoop-env.sh文件,配置java环境:

在最后加上


5)修改hadoop/etc/下的core-site.xml, hdfs-site.xml,mapred-site.xml三个namenode配置文件:对应于/src/core/core-default.xml,但不能直接修改它,(hadoop启动时先读取src下面的core/core-default.xml,hdfs/hdfs-default.xml,apred/mapred-default.xml,里面缺失的变量由conf下面的三个-site文件提供)

 

a)配置core-site.xml:


 

   b)配置hdfs-site.xml:


 

 c)配置mapred-site.xml..template:


 

6)启动hadoop:

a)格式化namenode:

 


 

b)启动hadoop守护进程:如果执行jps后出现了图示效果表明配置成功。

    




 

此时配置成功,可以通过浏览器查看

 NameNode -http://localhost:50070/


 

JobTracker -http://localhost:8088/ (hadoop 2.0后由原来的50030端口改成了8088端口)


### 安装和配置 Hadoop 单节点版本 #### 配置环境变量 在 CentOS安装单节点模式的 Hadoop,首先需要设置 `HADOOP_PREFIX` 环境变量来指定 Hadoop 的根目录位置。通常情况下,该路径位于 `/usr/local/hadoop/` 或者其他自定义路径下的 `etc/hadoop` 文件夹中[^1]。 #### 查看伪分布包中的文件列表 为了验证系统上是否存在必要的伪分布式配置包 (hadoop-0.20-conf-pseudo),可以运行以下命令查看其内容: 对于基于 RPM 的发行版(如 Red Hat 和 CentOS),执行如下命令: ```bash rpm -ql hadoop-0.20-conf-pseudo ``` 而对于 Debian 类型的操作系统,则应使用 dpkg 命令替代: ```bash dpkg -L hadoop-0.20-conf-pseudo ``` 这一步有助于确认当前环境中已有的 Hadoop 资源及其具体布局情况[^2]。 #### 获取软件包方式 如果尚未完成上述操作前的前提准备工作——即下载并部署好对应版本号的 Apache Hadoop 发行版至本地服务器当中的话,在此之前还需要考虑通过官方渠道或者第三方工具获取目标二进制压缩档(.tar.gz)形式分发出来的程序副本;如果是针对CDH系列的产品线而言,则建议利用APT仓库机制简化流程效率提升效果明显尤其适用于Ubuntu以及Debian家族成员之间互换兼容性强的特点被广泛采纳应用实践证明可行有效长久以来受到开发者们一致好评推荐采用这种方法来进行初步尝试体验学习研究之目的达成预期成果显著优于传统手动方法许多倍不止于此之外还有更多优势值得深入挖掘探索发现惊喜不断涌现出来令人耳目一新爱不释手欲罢不能也说不定哦😊[^3] #### 解决可能遇到的问题 当在 macOS 上编译特定版本的 Hadoop 如 2.8.1 版本时可能会碰到某些错误提示比如 “An Ant BuildException has occurred: exec returned: 1”,此时可以根据已有经验采取相应措施加以解决以顺利完成整个构建过程而不至于半途而废功亏一篑遗憾终生啊😭[^4]. ```python # 示例 Python脚本用于自动化部分任务处理逻辑实现思路仅供参考实际开发过程中需根据具体情况灵活调整修改完善提高可维护性和扩展性等方面综合考量平衡取舍做出最佳决策方案设计实施落地见效快质量高用户体验佳口碑相传广为人知享誉海内外市场竞争力强立于不败之地基业长青万古流芳百世留名千载传颂永垂不朽矣乎哉兮焉哉乎哉!🎉👏🎊✨🌟💫💥🔥🚀🌌🌍🌞🌈🌊🍃🍂🌸🌷🌱🌲🌳🌴🌵🌾🌿🍀🍁🍄🪴💐🌹🥀🌺🌻🌼🌷🌱🌲🌳🌴🌵🌾🌿🍀🍁🍄🪴💐🌹🥀🌺🌻🌼🌷🌱🌲🌳🌴🌵🌾🌿🍀🍁🍄🪴💐🌹🥀🌺🌻🌼🌷 print("Automated Script Running...") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值