Hadoop配置安装

自己做实验,用了两个笔记本装Hadoop,采用虚拟机,总共三个节点,总结一下安装过程:
  1. 安装JDK:
  • 下载JDK,采用“wget + 下载网址”的方式直接把JDK下载到其中一个节点;
  • 采用“tar -xzvf  + 下载压缩包名”将下载压缩包进行解压;
  • 采用mv命令将解压的压缩包移到/usr目录下(可选,非必须);
2.  配置免密码登陆:
  • ssh-keygen  -t  -rsa命令产生相关密钥文件,密钥文件默认生成在.ssh文件夹下;
  • 进入到.ssh文件夹下,采用”scp ./id_rsa.pub  用户名@主机名:/root/.ssh/authorized_keys"命令将公钥文件id_rsa.pub拷贝到另一个节点,查看是否复制成功以及文件权限是否是-rw-r--r--;
  • ssh+主机名,登陆验证是否免密码配置成功;
  • ctrl+d可以退出ssh
3.安装配置hadoop:
  • 下载hadoop,然后解压(同jdk);
  • 修改hadoop-env.sh:设置javahome(去掉第九行前边的#号,修改相应javahome路径);
  • 修改core-site.xml;
  • 修改hdfs-site.xml文件;
  • 修改mapred-site.xml文件;
  • 修改masters文件;
4.修改每个节点的/etc/hosts文件,将ip地址与主机名对应;
5.关闭防火墙;
6.将配置好的hadoop分发给其他节点;(scp -r ./hadoop-1.1.2........);
7.格式化namenode(bin/hadoop namenode -format);
8.启动hadoop,若部分进程启动,需采用kill -9 +进程号杀掉启动进程再重新启动;
9.若启动hadoop时需要输入本机密码,则需要将.ssh文件夹中的id_rsa.pub文件拷贝到authorized_keys文件中;
内容概要:本文档详细介绍了在三台CentOS 7服务器(IP地址分别为192.168.0.157、192.168.0.158和192.168.0.159)上安装配置Hadoop、Flink及其他大数据组件(如Hive、MySQL、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala)的具体步骤。首先,文档说明了环境准备,包括配置主机名映射、SSH免密登录、JDK安装等。接着,详细描述了Hadoop集群的安装配置,包括SSH免密登录、JDK配置Hadoop环境变量设置、HDFS和YARN配置文件修改、集群启动与测试。随后,依次介绍了MySQL、Hive、Sqoop、Kafka、Zookeeper、HBase、Spark、Scala和Flink的安装配置过程,包括解压、环境变量配置配置文件修改、服务启动等关键步骤。最后,文档提供了每个组件的基本测试方法,确保安装成功。 适合人群:具备一定Linux基础和大数据组件基础知识的运维人员、大数据开发工程师以及系统管理员。 使用场景及目标:①为大数据平台搭建提供详细的安装指南,确保各组件能够顺利安装配置;②帮助技术人员快速掌握Hadoop、Flink等大数据组件的安装配置,提升工作效率;③适用于企业级大数据平台的搭建与维护,确保集群稳定运行。 其他说明:本文档不仅提供了详细的安装步骤,还涵盖了常见的配置项解释和故障排查建议。建议读者在安装过程中仔细阅读每一步骤,并根据实际情况调整配置参数。此外,文档中的命令和配置文件路径均为示例,实际操作时需根据具体环境进行适当修改。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值