2.修改/etc/hosts文件 /安装SSH、配置SSH无密码登陆(全程切换到hadoop用户下操作)

本文指导如何在Ubuntu系统中为新增的hadoop用户配置SSH无密码登录。首先,为每台机器创建hadoop用户,然后通过SSH配置实现各机器之间的免密登录,包括将公钥文件在集群中互传并验证SSH连接。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

修改/etc/hosts文件

sudo gedit /etc/hosts

127.0.0.1   localhost
192.168.222.129 master     下面分别对应三个机器的IP地址,用ifconfig查看
192.168.222.130 slave1
192.168.222.131 slave2

# The following lines are desirable for IPv6 capable hosts
::1     ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters

测试是否能pingping master/slave1/slave2

==========

分别给3台机器都创建hadoop用户,方便进行管理

这里写图片描述

二、           建立hadoop运行帐号
即为hadoop集群专门设置一个用户组及用户
(1)创建hadoop用户组
(2)创建hadoop用户
     sudo adduser -ingroup hadoop hadoop
    回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。
最后确认信息是否正确,如果没问题,输入 Y,回车即可。
(3)为hadoop用户添加权限(给hadoop用户赋予和root用户同样的权限)
输入:
    sudo gedit /etc/sudoers


~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

================================================

用新增加的hadoop用户登录Ubuntu系统,进行SSH的配置

================================================

配置ssh免密码登录

    hadoop工作时,各节点要相互通讯,正常情况下linux之间通讯要提供用户名、密码(目的是保证通讯安全),如果
需要人工干预输入密码,显然不方便,做这一步的目的,是让各节点能自动通过安全认证,不影响正常通讯。



安装ssh: sudo apt-get install openssh-server
安装完成后,启动服务:sudo /etc/init.d/ssh start
查看服务是否正确启动:ps -e | grep ssh

一.使用SSH使每一台机器免密码登录自己本机

//下面以mster机器为例:

1.使登录身份始终是hadoop,操作目录始终是/home/master
master@master:~$ su hadoop     #切换成hadoop(以hadoop身份登录到系统)
hadoop@master:~$cd /home/hadoop(进入个人主目录,默认为/home/hadoop)

2.生成公钥私钥id_rsa  id_rsa.pub
hadoop@master:~$ ssh-keygen -t rsa -P ''   (注:最后是二个单引号,生成公钥私钥)
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): 
Created directory '/home/hadoop/.ssh'.
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
一、单选题(每题3分,共计30分) 1、Centos 中修改文件或目录的访问权限( B )命令 A.chown B.passwd C.chmod D.clear 2、在文件属性中,文件的权限用第( A )列字符表示 A.1-5 B.2-10 C.3-9 D.1-8 3、Hadoop 安装在一台计算机上,需修改相应的配置文件,用一台计算机模拟多台主机的集群是( B )模式 A.全分布模式 B.伪分布模式 C.单机模式 D.全分布 HA 模式 4、配置 Hadoop 环境变量修改(B )文件 A.vi /etc/profile B.vi /etc/profiles C.vi /etc/hosts D.vi ~/input/data 5、配置 SSH 服务需配置(B )文件 A.vi /etc/ssh/sshd B.vi /etc/ssh/sshd_config C.vi /etc/sysconfig/network-scripts/ifcfg-eth0 D.vi ~/.bash_profile 6、hadoop2.0 与 hadoop1.0 区别( D ) A.增加 MapReduce2 B.增加 YARN C.增加 HDFS2 D.增加容错机制 7、在 hadoop 配置中 core-site.xml 的配置是( B)参数 A.集群全局参数 B.HDFS 参数 C.Mapreduce 参数 D.集群资源管理系统参数 8、在 hadoop 配置中 yarn-site.xml 作用是(B) A.用于定义系统级别的参数 B.用于名称节点和数据节点的存放位置 C.用于配置 JobHistory Server 和应用程序参数 D.配置 ResourceManager,NodeManager 的通信端口 9、如没有配置 hadoop.tmp.dir 参数,此时系统默认的临时目录为(D ) A./tmp/hadoop-hadoop B./usr/hadoop-hadoop C./usr/local/hadoop-hadoop D./usr/local/src/hadoop-hadoop 10、以下哪个文件是能够修改 HDFS 的副本保存数量参数(D) A.修改 mapred-site.xml 配置文件 B.修改 core-site.xml 配置文件 C.修改 yarn-site.xml 配置文件 D.修改 hdfs-site.xml 配置文件 得分 二、多选题(每题4分,共20分) 1、以下哪些是 Linux 的特点 A.开放源代码的程序软件,可自由修改 B.与 Unix 系统兼容,具备几乎所有 Unix 的优秀特性 C.可自由传播,收费使用,无任何商业化版权制约 D.适合 Intel 等 x86 CPU 系列架构的计算机 2、以下哪些是 Linux 操作系统组成部分 A.Linux 内核 B.GNU 软件及系统 C.必要的应用程序 D.CPU 3、以下哪些组件属于 Hadoop 生态圈 A.MySQL B.Hive C.HDFS D.Sqoop 4、Hadoop 的优点有哪些 A.扩容能力强 B.成本低 C.高效率 D.高可靠性 5、以下选项中哪些是 SSH 涉及到的两个验证方式 A.主机验证 B.用户身份验证 C.文件系统验证 D.操作系统验证
最新发布
06-29
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值