大数据之hdfs

HDFS:
通过 ip addr可以查看ip地址;
通过hostname可以查看主机名;
通过java -version查看jdk版本;
通过cat /etc/hosts可以查看到集群的每个主机名和其对应的IP地址,ping 集群中其他的主机名包括自己,如果在一个集群里是可以ping通的;
通过[root@linux03 etc]# ll |grep hosts 列举出当前目录下的内容,并搜索带hosts的文件
通过scp hosts linux0n:KaTeX parse error: Expected 'EOF', got '#' at position 107: …t@linux02 apps]#̲ cd hadoop-3.1.…PWD
4)启动时要先启动主节点,并对主节点进行初始化在/opt/apps/hadoop-3.1.1/bin 下执行
hadoop namenode -format ;[root@linux01 /]# cd /opt
[root@linux01 opt]# ll
total 181172
drwxr-xr-x. 4 root root 73 Apr 24 13:11 apps
drwxr-xr-x. 4 root root 30 Apr 24 13:01 hdpdata
-rw-r–r--. 1 root root 185516505 Apr 21 10:08 jdk-8u141-linux-x64.tar.gz
[root@linux01 opt]# cd hdpdata/
[root@linux01 hdpdata]# ll
total 0
drwx------. 3 root root 21 Apr 24 18:10 data
drwxr-xr-x. 3 root root 21 Apr 24 18:10 name 看到name表示初始化成功
5)到/opt/apps/hadoop-3.1.1/sbin下实现集群的启停;
启动主节点:[root@linux01 sbin]# hadoop-daemon.sh start namenode 查看进程jps 如果有namenode进程表示主节点启动成功;
启动从节点:hadoop-daemon.sh start datanode 查看进程jps
以上操作只能/opt/apps/hadoop-3.1.1/sbin上操作,为了能在任意目录下启动集群在、etc/profile 下添加如下export HADOOP_HOME=/opt/apps/hadoop-3.1.1
export PATH=PATH:PATH:PATH:JAVA_HOME/bin:HADOOPHOME/sbin:HADOOP_HOME/sbin:HADOOPHOME/sbin:HADOOP_HOME/bin
别忘vi编辑之后source /etc/profile;
只需要在在主节点配置start-dfs.sh和stop-dfs.sh,从节点不用
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

### 如何使用 HDFS 进行大数据实验 HDFS 是一种分布式文件系统,广泛应用于大数据存储和管理场景。以下是关于如何利用 HDFS 开展大数据实验的具体方法。 #### 配置 SSH 免密登录 为了实现节点间的高效通信,在集群中的每台服务器之间都需要配置 SSH 免密登录[^1]。此过程可以通过生成公钥并将其分发到其他节点来完成。 #### 安装与初始化 Hadoop 确认 master 节点上已正确安装 Hadoop 并设置好环境变量路径。通常情况下,解压后的 Hadoop 文件夹应位于 `/usr/local/` 或类似的目录下。接着需要编辑 `core-site.xml`, `hdfs-site.xml` 和其他必要的配置文件以适配当前网络环境。 #### 启动 HDFS 服务 执行如下命令可以启动 NameNode 和 DataNode 的守护进程: ```bash start-dfs.sh ``` 随后可通过检查是否有对应的 Java 进程运行来验证 HDFS 是否成功启动: ```bash jps ``` #### 基本操作练习 熟悉常见的 HDFS Shell 命令对于日常维护至关重要。例如,创建目录、上传下载文件以及删除文件等基本功能都可以通过简单的 CLI 指令完成[^3][^4]。下面是一些常用例子: - 创建远程目录: ```bash hdfs dfs -mkdir /user/testdir ``` - 将本地文件复制至 HDFS 上: ```bash hdfs dfs -put localfile.txt /user/testdir/ ``` - 把 HDFS 中的数据取回本地磁盘: ```bash hdfs dfs -get /user/testdir/remotefile.txt . ``` - 移动 HDFS 内部的一个文件位置: ```bash hdfs dfs -mv /source/path/file.txt /destination/path/ ``` 以上这些技能构成了理解更复杂任务的基础[^2]。 #### 数据处理模拟 一旦掌握了上述基础知识之后,就可以尝试加载实际业务产生的海量日志或者交易记录进入 HDFS 存储层面上面做进一步分析工作了。比如构建 ETL 流水线读写框架等等高级话题领域探索学习之旅就此开启! ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值