【大数据基础】HDFS

1. HDFS

1.1 特性

  • 支持超大文件
  • 检测和快速应对硬件故障
  • 流式数据访问
  • 简化的一致性模型
  • 低延迟数据访问
  • 大量潇的文件
  • 多用户写入、修改文件

1.2 体系结构

在这里插入图片描述

  • namenode: 分布式文件系统中的管理者,负责管理文件系统命名空间,集群配置和数据块复制。
  • datanode: 文件存储的基本单元,以数据块的形式保存HDFS中文件的内容和数据块的数据校验信息
  • 客户端和namenode,datanode通信,访问HDFS文件系统。

1.2.1 数据块

数据分块存储,默认大小64MB。

好处:

  • 存比磁盘大的文件
  • 简化了存储子系统
  • 方便容错,有利于数据复制。

1.2.2 namenode 和 secondarynamenode

namenode 维护文件系统的文件目录树,文件/目录的元信息和文件的数据块索引。

secondarynamenode配合namenode,提供了检查点机制。namenode发生故障时,减少停机时间并降低namenode元数据丢失的风险,不支持故障自动恢复。

1.2.3 datanode

  • 向namenode报告
  • 接收namenode的指令

1.3 HDFS主要流程

1.3.1 客户端到nanenode的文件与目录操作

创建子目录

在这里插入图片描述

删除子目录

在这里插入图片描述

  • 客户端发送删除指令给namenode之后,namenode并不会删除而是做标记
  • datanode 发送心跳时,才会把删除指令发送给相应的datanode

1.3.2 客户端读文件

在这里插入图片描述

1.3.3 客户端写文件

在这里插入图片描述

1.3.4 数据节点的启动和心跳

在这里插入图片描述

1.3.5 secondarynamenode 合并元数据

在这里插入图片描述

**高校专业实习管理平台设计与实现** 本设计项目旨在构建一个服务于高等院校专业实习环节的综合性管理平台。该系统采用当前主流的Web开发架构,基于Python编程语言,结合Django后端框架与Vue.js前端框架进行开发,实现了前后端逻辑的分离。数据存储层选用广泛应用的MySQL关系型数据库,确保了系统的稳定性和数据处理的效率。 平台设计了多角色协同工作的管理模型,具体包括系统管理员、院系负责人、指导教师、实习单位对接人以及参与实习的学生。各角色依据权限访问不同的功能模块,共同构成完整的实习管理流程。核心功能模块涵盖:基础信息管理(如院系、专业、人员信息)、实习过程管理(包括实习公告发布、实习内容规划、实习申请与安排)、双向反馈机制(单位评价与学生反馈)、实习支持与保障、以及贯穿始终的成绩评定与综合成绩管理。 在技术实现层面,后端服务依托Django框架的高效与安全性构建业务逻辑;前端界面则利用Vue.js的组件化特性与LayUI的样式库,致力于提供清晰、友好的用户交互体验。数据库设计充分考虑了实习管理业务的实体关系与数据一致性要求,并保留了未来功能扩展的灵活性。 整个系统遵循规范的软件开发流程,从需求分析、系统设计、编码实现到测试验证,均进行了多轮迭代与优化,力求在功能完备性、系统性能及用户使用体验方面达到较高标准。 **核心术语**:实习管理平台;Django框架;MySQL数据库;Vue.js前端;Python语言。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
### 如何使用 HDFS 进行大数据实验 HDFS 是一种分布式文件系统,广泛应用于大数据存储和管理场景。以下是关于如何利用 HDFS 开展大数据实验的具体方法。 #### 配置 SSH 免密登录 为了实现节点间的高效通信,在集群中的每台服务器之间都需要配置 SSH 免密登录[^1]。此过程可以通过生成公钥并将其分发到其他节点来完成。 #### 安装与初始化 Hadoop 确认 master 节点上已正确安装 Hadoop 并设置好环境变量路径。通常情况下,解压后的 Hadoop 文件夹应位于 `/usr/local/` 或类似的目录下。接着需要编辑 `core-site.xml`, `hdfs-site.xml` 和其他必要的配置文件以适配当前网络环境。 #### 启动 HDFS 服务 执行如下命令可以启动 NameNode 和 DataNode 的守护进程: ```bash start-dfs.sh ``` 随后可通过检查是否有对应的 Java 进程运行来验证 HDFS 是否成功启动: ```bash jps ``` #### 基本操作练习 熟悉常见的 HDFS Shell 命令对于日常维护至关重要。例如,创建目录、上传下载文件以及删除文件等基本功能都可以通过简单的 CLI 指令完成[^3][^4]。下面是一些常用例子: - 创建远程目录: ```bash hdfs dfs -mkdir /user/testdir ``` - 将本地文件复制至 HDFS 上: ```bash hdfs dfs -put localfile.txt /user/testdir/ ``` - 把 HDFS 中的数据取回本地磁盘: ```bash hdfs dfs -get /user/testdir/remotefile.txt . ``` - 移动 HDFS 内部的一个文件位置: ```bash hdfs dfs -mv /source/path/file.txt /destination/path/ ``` 以上这些技能构成了理解更复杂任务的基础[^2]。 #### 数据处理模拟 一旦掌握了上述基础知识之后,就可以尝试加载实际业务产生的海量日志或者交易记录进入 HDFS 存储层面上面做进一步分析工作了。比如构建 ETL 流水线读写框架等等高级话题领域探索学习之旅就此开启! ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值