大数据-HDFS 配置与使用

导语
  在之前的分享中我们知道HDFS有三种模式:单机模式、伪集群模式和集群模式。


单机模式:Hadoop 仅作为库存在,可以在单计算机上执行 MapReduce 任务,仅用于开发者搭建学习和试验环境。

伪集群模式:此模式 Hadoop 将以守护进程的形式在单机运行,一般用于开发者搭建学习和试验环境。

集群模式:此模式是 Hadoop 的生产环境模式,也就是说这才是 Hadoop 真正使用的模式,用于提供生产级服务。

HDFS 配置和启动

  HDFS 和数据库相似,是以守护进程的方式启动的。使用 HDFS 需要用 HDFS 客户端通过网络 (套接字) 连接到 HDFS 服务器实现文件系统的使用。

  在Docker Hadoop环境搭建 博客中,我们已经配置好了 Hadoop 的基础环境,容器名为 hadoop_single。如果你上次已经关闭了该容器或者关闭了计算机导致容器关闭,请启动并进入该容器。

  进入该容器后,我们确认一下 Hadoop 是否存在:

hadoop version

  可以安装一个小工具用来修改密码方便

yum install -y passwd sudo

  设置 hadoop 用户密码

passwd hadoop

  修改 hadoop 安装目录所有人为 hadoop 用户

chown -R hadoop /usr/local/hadoop

  然后用文本编辑器修改 /etc/sudoers 文件,在

root    ALL=(ALL)       ALL

  行,之后添加

hadoop  ALL=(ALL)       ALL

  然后退出容器。关闭并提交容器 hadoop_single 到镜像 hadoop_proto:

docker stop hadoop_single
docker commit hadoop_single hadoop_proto

  创建新容器 hdfs_single :

docker run -d --name=hdfs_single --privileged hadoop_proto /usr/sbin/init

启动 HDFS

  现在进入刚建立的容器:

docker exec -it hdfs_single su hadoop

  现在应该是 hadoop 用户:

whoami

  生成 SSH 密钥:

ssh-keygen -t rsa

  一直按回车键就可以了,然后将生成的密钥添加到信任列表

ssh-copy-id hadoop@172.17.0.2

  查看容器 IP 地址:

ip addr | grep 172
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

nihui123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值