hadoop自我检测(面试题)

本文深入解析Hadoop及Hive的关键概念和技术,包括HDFS的分布式存储机制、MapReduce编程模型、Hive的数据仓库功能及其元数据管理。涵盖HDFS读写流程、Hive SQL查询、表与分区管理等实用技巧。

1、hadoop是个什么东西?

: 回答时,精髓:清晰,明确,不含糊, – 但不求多深多全,不能有明确的错

2、hdfs的用途是什么?

<–描述开放式问题的套路:先勾勒出事物的轮廓、骨架、再逐层填充细节–>
储海量文件、为分布式数据处理做支撑
是一个分布式的文件系统

系统中有多重角色,核心角色是namenode 和datanode
namenode负责管理元数据
datanode负责存储文件块

hdfs的运行机制:写文件、读文件的流程

3、文件在hdfs中是通过什么机制来存放的

分布式存放的

文件不是存在一台机器上,而是存在很多的datanode服务器上
一个文件也会被切成多块,分布在多台datanode上
文件的分块存放位置信息,记录在namenode的元数据中

每一个文件的文件块都可以存储多个副本,副本的数量由上传该文件的客户端决定
每一个文件的切块大小也是由客户端决定

读、写数据流程

4、hdfs的客户端api中上传、下载文件,打开文件的输入输出流的方法?

fs.copyFromLocalFile(src,dest)
fs.copyToLocalFile(src,dest)
int = fs.open()
out = fs.create();

5、hdfs的读写数据流程能描述吗?

写文件流程:
客户端向NN请求上传文件
NN告知是否可以上传
客户端向NN请求上传第一个block
NN告知n台DN机器主机名端口号
客户端挑选最近的一台DN,发出请求
目标DN向后续的n个DN发请求,建立pipeline,并在完成后应答客户端
客户端向目标DN传送文件块的字节数据
目标DN接收字节流,并往后续dn进行发送,后续dn接收并往后续发送
该block的数据发送完成后,客户端继续向NN请求上传第二个block,然后重复上述过程

读文件流程:
客户端向NN请求读文件
NN返回该文件的元数据给客户端
客户端找到第一个block的位置信息(dn)
然后挑选最近的一台dn请求读取一个block块
然后dn发送该block块的字节流给客户端,客户端收取
第一个block收取完成后,挑选第二个block的存储dn中最近的一台,重复上述过程

6、hdfs中动态扩容增加10台datanode的步骤有哪些?

准备10台服务器,安装系统、配置环境、安装jdk
安装hadoop软件包
从原集群中同步hadoop配置文件到这新的10台机器
在这10台机器上,用 hadoop-daemon.sh start datanode 分别启动datanode进程
此时,新的10台机器已加入原集群了

后续:为了方便以后用 start-dfs.sh 自动启动集群时,也把这新家的10台自动启动,则可以修改一下slaves文件,加入这10台

6、namenode是怎么管理元数据的?

首先,namenode会将元数据存储在内存中,同时,也会将元数据序列化在磁盘文件fsimage中
然后,这其中涉及的一个核心问题是:内存中元数据如何与磁盘中fsimage序列化文件保持尽可能一致
namenode会将最新的元数据变动以操作日志的形式写在磁盘日志文件edits中
再然后,secondary namenode会定期将新生成的edits文件下载到本地,跟前一个版本的fsimage进行合并生成新的fsimage,并上传到nameonde替换上一个版本的fsimage

7、写一个mapredcue程序,需要写一些什么类?

自定义mapper
自定义reducer
jobsubmitter 提交job的客户端程序

根据需要:还可以有combiner、partitioner、GroupingComparator、自定义Inputformat、自定义outputformat、自定义bean实现writableComparable接口

8、能否不看模板代码,写出一个wordcount

map(){
   String line =value.toString();
   String[] words = line.split(" ");
   for(String word:words){
		context.write(new Text(word),new IntWritable(1))  
   }
}

reduce(Text key,Iterable<IntWritable> values,Context context){
    int count = 0;
    for(IntWritable value:values){
		count += value.get();
	}
context.write(key,new IntWritable(count));

}
main(){
  Configuration conf = new Configuration();
  Job job = Job.getInstance(conf);
  
  ....
  boolean res = job.waitForCompletion(true);
  System.exit(res?0:1);

}

9、能否不看模板代码,写一个求分组topn的mapreduce程序

基本实现:

map(){
  context.write("分组条件",数据)
}


reduce(){
    // 将这一组数据通过迭代器拿出来,放到一个list中或者treemap中
	// 对数据排序 Collections.sort(list,new Comparator());
	// 然后输出前N条
}

高级实现:

利用GroupingComparator

map(){

  context.write(数据bean,nullWritable)

}

保证分区正确:自定一个partitioner
getPartition(){
   // 根据数据bean中的分组条件字段进行分区

}

保证reduce端分组正确;自定义一个GroupingComparator
// 数据bean中uid相同则看成一组

reduce(){
  //按顺序输出前n个

}

10、能否不看模板代码,写一个数据去重的mr程序

11、能否描述mr程序的运行流程、mr程序提交到yarn的流程?

12、hive是个什么东西?它大体是怎么工作的

hive是一个基于hadoop的数据仓库工具

hive中可以建表,建库,
表、库的定义数据存放在hive的元数据库(mysql)中
hive中的表数据存放在hdfs中
hive对用户提交的查询sql,会翻译成mapreduce程序在yarn上运行

13、hive中的元数据是指什么、存在哪?hive中的表数据又是存放在哪?

14、不看模板,能在hive中建库、建表、建分区表、导入数据

create database db_xx;
create table t_yy(id int,name string,birthday date,age int,price double)
row format delimited fields terminated by '\001';

create table t_zz(id int,name string,birthday date,age int,price double)
partitioned by (dt string)
row format delimited fields terminated by '\001';

load data [local] inpath '/path/data' into table t_zz partition(dt='2017-08-08');

15、不看模板,能在hive中做简单查询、条件查询、join查询、group by查询

16、不看模板,能在hive中应用cast函数、substr函数、from_unixtime函数

17、能通过看百度,在hive中使用to_date(“2017-08-30 17:30:20”,“yyyy-MM-dd HH:mm:ss”)函数

18、不看模板,能在hive中应用row_number() over()函数来求分组topn

select ... 
from 
(
select x,y,row_number() over(partition by sex order by age desc) as rank from t_yy
)  tmp
where tmp.rank < 4;

19、不看模板,能在hive中应用json_tuple()解析json数据

select json_tuple(json,‘movie’,‘rate’,‘timeStamp’,‘uid’) as(movie,rate,ts,uid) from t_json;

20、知道textfile和sequencefile的区别吗?

textfile中存放的是文本数据(文本就是一些字符,有行的概念)
sequencefile是hadoop中开发的一种文件格式,里面存放的是大量key-value的对象序列化数据,文件头部会存key-value的类型权限定名

## 软件功能详细介绍 1. **文本片段管理**:可以添加、编辑、删除常用文本片段,方便快速调用 2. **分组管理**:支持创建多个分组,不同类型的文本片段可以分类存储 3. **热键绑定**:为每个文本片段绑定自定义热键,实现一键粘贴 4. **窗口置顶**:支持窗口置顶功能,方便在其他应用程序上直接使用 5. **自动隐藏**:可以设置自动隐藏,减少桌面占用空间 6. **数据持久化**:所有配置和文本片段会自动保存,下次启动时自动加载 ## 软件使用技巧说明 1. **快速添加文本**:在文本输入框中输入内容后,点击"添加内容"按钮即可快速添加 2. **批量管理**:可以同时编辑多个文本片段,提高管理效率 3. **热键冲突处理**:如果设置的热键与系统或其他软件冲突,会自动提示 4. **分组切换**:使用分组按钮可以快速切换不同类别的文本片段 5. **文本格式化**:支持在文本片段中使用换行符和制表符等格式 ## 软件操作方法指南 1. **启动软件**:双击"大飞哥软件自习室——快捷粘贴工具.exe"文件即可启动 2. **添加文本片段**: - 在主界面的文本输入框中输入要保存的内容 - 点击"添加内容"按钮 - 在弹出的对话框中设置热键和分组 - 点击"确定"保存 3. **使用热键粘贴**: - 确保软件处于运行状态 - 在需要粘贴的位置按下设置的热键 - 文本片段会自动粘贴到当前位置 4. **编辑文本片段**: - 选中要编辑的文本片段 - 点击"编辑"按钮 - 修改内容或热键设置 - 点击"确定"保存修改 5. **删除文本片段**: - 选中要删除的文本片段 - 点击"删除"按钮 - 在确认对话框中点击"确定"即可删除
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值