启动Hadoop时一直提示输入密码

[root@wh bin]# sh $HADOOP_HOME/sbin/start-all.sh 
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [wh]
root@wh's password: 
wh: Authentication failed.
root@wh's password: 
wh: starting datanode, logging to /home/software/hadoop-2.7.7/logs/hadoop-root-datanode-wh.out
Starting secondary namenodes [0.0.0.0]
root@0.0.0.0's password: 
0.0.0.0: starting secondarynamenode, logging to /home/software/hadoop-2.7.7/logs/hadoop-root-secondarynamenode-wh.out
starting yarn daemons
starting resourcemanager, logging to /home/software/hadoop-2.7.7/logs/yarn-root-resourcemanager-wh.out
root@wh's password: 
wh: starting nodemanager, logging to /home/software/hadoop-2.7.7/logs/yarn-root-nodemanager-wh.out
[root@wh bin]# 

原因 没有配置本地ssh 免密登录 

安装

OpenSSH是Secure Shell的一个开源实现。CentOS的软件库里面已经有了OpenSSH的服务器包(openssh-server)和客户端包(openssh-clients),用yum install可以直接安装。

$ yum install openssh-server

执行 以下安装命令  生成秘钥文件   ssh-keygen -t rsa

[root@wh bin]# ssh-keygen -t rsa
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:32QbL/25XZpCm38fOdARgc2iPASgX9N66vyJ+MP6TXI root@wh
The key's randomart image is:
+---[RSA 2048]----+
|       ....   +o.|
|      .   .. o o.|
|     .   oo.. .. |
|      . . o+  . .|
|       .S. .=. . |
|         .o+.=. .|
|        .o.E+oo+.|
|        +o* =. +B|
|       o+*o+ o++*|
+----[SHA256]-----+
[root@wh bin]# 

所有需要输入的地方 直接  enter

实现本地登录免密码登录,地的公钥导入授权文件就可以 
cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

效果如下 

[root@wh bin]# cat  /root/.ssh/authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAADAQABAAABAQClI2xXCDSPclfrvY6ERH7VuGRJqqPY3h2Et0YAERpGiFBqXVAeyS9OK9MM5FY+QyHZLo8vT4vMvAp4bJzESUDzCH6N7lUYfFJ1Nm0vacbf7jXbQ6wDGCSFzE2CajawvHozTsBZ+l0aILZgfUD21EK7QUkKPIAoJk5wxPD0/SnkIOA7wwuaU8x5LF5CjjJIGdBkA60nx5x+1BR9Ygx2xK2hg8q+2eTdGpmNON+fNjfaE3v4z9GlTYqnK9NdWFiccn5C9TNA8k61q5AY2OQ1ICnzCgaVzBGQ+XoiRa4nzLux1QEGWxFAsFWJZbIj3altKXB2Ix2L+FnWE4NlSSt0mfev root@wh
[root@wh bin]# sh $HADOOP_HOME/sbin/stop-all.sh 
This script is Deprecated. Instead use stop-dfs.sh and stop-yarn.sh
Stopping namenodes on [wh]
wh: stopping namenode
wh: stopping datanode
Stopping secondary namenodes [0.0.0.0]
0.0.0.0: stopping secondarynamenode
stopping yarn daemons
stopping resourcemanager
wh: no nodemanager to stop
no proxyserver to stop
[root@wh bin]# 

 

如有必要 可以对 .ssh 文件 和 赋权

[root@wh ~]$ chmod 700 .ssh            //赋予权限
[root@wh ~]$ chmod 600 .ssh/*

这个就可以正常启动了  不需要输入密码了

 

欢迎留言评论

 

 

 

Linux环境下启动Hadoop集群分为以下几个关键步骤。为了保证整个过程顺利进行,我们需要预先做好基础设置并验证所有节点间的连通性和权限配置等准备工作。 ### 步骤一:检查SSH免密登录功能 确保主节点能够通过SSH密码访问从节点机器。如果没有设置好这一环节,则需要按照以下命令生成秘钥并将公钥分发至各个DataNode上: ```bash ssh-keygen -t rsa # 按提示一路回车自动生成密钥对文件,默认保存位置~/.ssh/id_rsa.pub cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys && chmod 600 ~/.ssh/authorized_keys ``` 接着测试一下能否无需输入密码直接远程连接到某个Slave节点上去,比如slave1主机名对应的实际IP地址是x.x.x.x: ```bash ssh slave1 ``` ### 步骤二:编辑conf/core-site.xml、hdfs-site.xml以及mapred-site.xml等重要XML参数配置文档 这里简述几个最常用的属性值示例(依实际需求定制化修改): #### core-site.xml (用于指定Namenode URI) ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode_host:9000</value> <!-- 将 namenode_host 替换为主机名或 IP --> </property> </configuration> ``` #### hdfs-site.xml (定义副本策略及存储路径等内容) ```xml <configuration> <property> <name>dfs.replication</name> <value>3</value> <!-- 设置每个block的复制因子数量--> </property> </configuration> ``` ### 步骤三:格式化NameNode元数据信息区域 仅当第一次运行或者重新搭建新环境才需执行此步操作,否则会清除现有数据结构! ```bash hdfs namenode -format ``` ### 步骤四:依次启动各类服务进程 切换到相应脚本所在目录,并按顺序分别触发下面几条指令来激活DFS与YARN两大子系统的所有守护线程。 开始之前建议先进入HADOOP_HOME/sbin这个特定的工具集合放置处再往下走后续流程... ```bash start-dfs.sh # 启动 DataNodes 和 Secondary NameNode 相关的服务 start-yarn.sh # 开启 ResourceManager 资源调度模块同还会拉起 NodeManagers # 可选地查看当前状态概览表单以确认各角色均在线就绪待命的状态是否达标 yarn node -list jps # 展现 Java Process Status 抓取结果清单列表形式呈现出来便于核验是否存在遗漏掉未完全起来的情况发生等问题存在风险点隐患排查辅助作用效果较好一点哦~ ``` 以上便是完整的基于Linux操作系统之上手动构建小型实验性质的教学版 Hadoop 分布式计算框架实例教程啦~ ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值