Hadoop运行环境搭建

该博客详细介绍了如何在虚拟机中搭建Hadoop运行环境,包括克隆虚拟机、配置静态IP、修改主机名、配置hosts、关闭防火墙、创建用户、赋予用户root权限、拷贝已安装的Hadoop和Java到新虚拟机,以及更新配置文件。整个过程旨在为Hadoop集群提供稳定的基础环境。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

虚拟机环境准备

1. 克隆虚拟机

2. 修改克隆虚拟机的静态IP

2.1修改70-persistent-net.rules,复制 ATTR{address}

vim /etc/udev/rules.d/70-persistent-net.rules
# This file was automatically generated by the /lib/udev/write_net_rules
# program, run by the persistent-net-generator.rules rules file.
#
# You can modify it, as long as you keep each rule on a single
# line, and change only the value of the NAME= key.

# PCI device 0x8086:0x100f (e1000)

# PCI device 0x8086:0x100f (e1000)

# PCI device 0x8086:0x100f (e1000) (custom name provided by external tool)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="00:0c:29:01:cb:26", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"

2.2修改ifcfg-eth0

vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
TYPE=Ethernet
UUID=580bc2ce-b502-4472-89d5-c100ba1511d7
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
HWADDR=00:0c:29:01:cb:26 #替换HWADDR
DEFROUTE=yes
PEERDNS=yes
PEERROUTES=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
NAME="System eth0"
IPADDR=192.168.126.102 #修改IP地址
NETMASK=255.255.255.0
GATEWAY=192.168.126.2
DNS1=192.168.126.2
LAST_CONNECT=1606409013

3. 修改主机名

vim /etc/sysconfig/network

4. 配置host

 vim /etc/hosts
#127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.126.100 hadoop100
192.168.126.101 hadoop101
192.168.126.102 hadoop102
192.168.126.103 hadoop103
192.168.126.104 hadoop104
192.168.126.105 hadoop105

5. 关闭防火墙

1:查看防火状态

	systemctl status firewalld

	service  iptables status

2:暂时关闭防火墙

	systemctl stop firewalld
	
	service  iptables stop

3:永久关闭防火墙

	systemctl disable firewalld
	
	chkconfig iptables off

4:重启防火墙

	systemctl enable firewalld
	
	service iptables restart  

6. 创建用户

[root@hadoop102 ~]# useradd kang
[root@hadoop102 ~]# passwd kang

7. 配用户具有root权

sudo chown kang:kang module -R

8.将原来安装好的Hadoop和Java拷贝到新虚拟机/opt目录

scp -r module root@hadoop102:/opt/module

9.拷贝配置文件

scp  /etc/profile root@hadoop102:/etc/profile
scp可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)


基本语法
scp    -r          $pdir/$fname             $user@hadoop$host:$pdir/$fname
命令   递归       要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

10.source配置文件

source /etc/profile
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值