hadoop伪分布式搭建

本文详细介绍了Hadoop的核心组件,包括HDFS、MapReduce和YARN,并阐述了其主从架构。通过逐步指导,展示了在Linux环境下安装JDK和Hadoop的过程,包括配置环境变量、格式化HDFS以及启动服务。最后,讨论了SSH免登陆配置,确保远程操作的便捷性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Hadoop是什么?

海量数据的存储(HDFS)
海量数据的分析(MapReduce)
资源管理调度(YARN)

Hadoop核心?

hdfs: Hadoop Distributed File System 分布式文件系统
yarn: Yet Another Resource Negotiator
资源管理调度系统

hdfs的架构

主从结构
主节点,只有一个: namenode
从节点,有很多个: datanode
namenode负责:
接收用户操作请求
维护文件系统的目录结构
管理文件与block之间关系,block与datanode之间关系
datanode负责:
存储文件
文件被分成block存储在磁盘上
为保证数据安全,文件会有多个副本

搭建hadoop

1.准备Linux环境(此步骤部分命令须看具体安装hadoop版本)
1.1 开启网络,ifconfig指令查看ip
1.2 查看主机名  hostname
1.3 修改主机名为自己名字(hadoop)
	vim /etc/sysconfig/network
	NETWORKING=yes 
	HOSTNAME=hadoop
		
1.4修改主机名和IP的映射关系
	vim /etc/hosts
		
	192.168.182.128 hadoop

1.5关闭防火墙
	#查看防火墙状态
	systemctl status firewalld.service
	#关闭防火墙
	systemctl stop firewalld.service
	#关闭防火墙开机启动
	systemctl disable firewalld.service
	#chkconfig iptables off
	#打开防火墙
	systemctl start firewalld.service

1.6重启Linux
	reboot

2.安装JDK
2.1 filezilla上传jdk到opt

2.2 解压jdk
	tar -zxvf jdk-7u76-linux-x64.tar.gz
	
2.3 将java添加到环境变量中
	vim /etc/profile
	#在文件最后添加
	export JAVA_HOME=/opt/jdk1.7.0_76
	export PATH=$PATH:$JAVA_HOME/bin

	#刷新配置
	source /etc/profile

3.安装Hadoop
3.1 filezilla上传hadoop安装包,配置文档(hadoop2.2.0伪分布式搭建.txt)

3.2解压hadoop安装包
	#解压
	tar -zxvf hadoop-2.2.0.tar.gz
	
3.3修改配置文件(5个) 路径:/opt/hadoop-2.2.0/etc/hadoop
	第一个:hadoop-env.sh
	#在27行修改
	export JAVA_HOME=/opt/jdk1.7.0_76
	
	第二个:core-site.xml
	<configuration>
		<!-- 指定HDFS老大(namenode)的通信地址 -->
		<property>
				<name>fs.defaultFS</name>
				<value>hdfs://hadoop:9000</value>
		</property>
		<!-- 指定hadoop运行时产生文件的存储路径 -->
		<property>
				<name>hadoop.tmp.dir</name>
				<value>/opt/hadoop-2.2.0/tmp</value>
		</property>
	</configuration>
	
	第三个:hdfs-site.xml
	<configuration>
		<!-- 设置hdfs副本数量 -->
		<property>
				<name>dfs.replication</name>
				<value>1</value>
		</property>
	</configuration>
	
	第四个:mapred-site.xml.template 需要重命名: mv mapred-site.xml.template mapred-site.xml
	<configuration>
		<!-- 通知框架MR使用YARN -->
		<property>
				<name>mapreduce.framework.name</name>
				<value>yarn</value>
		</property>
	</configuration>
	
	第五个:yarn-site.xml
	<configuration>
		<!-- reducer取数据的方式是mapreduce_shuffle -->
		<property>
			<name>yarn.nodemanager.aux-services</name>
			<value>mapreduce_shuffle</value>
		</property>
	</configuration>

3.4将hadoop添加到环境变量
	vim /etc/profile
	
	export JAVA_HOME=/opt/jdk1.7.0_55
	export HADOOP_HOME=/opt/hadoop-2.2.0
	export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

	#刷新配置
	source /etc/profile
3.5格式化HDFS(namenode)第一次使用时要格式化
	hadoop namenode -format
	
3.6启动hadoop
	先启动HDFS
	start-dfs.sh
	
	再启动YARN
	start-yarn.sh

	一次性开启所有hadoop
	./start-all.sh
	
3.7验证是否启动成功
	使用jps命令验证
	27408 NameNode
	28218 Jps
	27643 SecondaryNameNode
	28066 NodeManager
	27803 ResourceManager
	27512 DataNode

	http://192.168.182.128:50070  (HDFS管理界面)		
	http://192.168.182.128:8088 (MR管理界面)

4.配置ssh免登陆
生成ssh免登陆密钥
cd ~,进入到我的home目录
cd .ssh/

ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
将公钥拷贝到要免登陆的机器上
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
或
ssh-copy-id -i localhost
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值