hive中使用HQL实现wordcount

本文介绍如何使用Hive SQL进行数据处理,包括创建分区表、导入数据、使用explode函数切分字符串并聚合统计等步骤。通过具体示例演示了从原始数据到统计结果的全过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、使用一张表,记录文件数据,文件的一行就是表里一个字段的数据,所以使用换行符作为分隔符,并以文件名为分区
drop table file_data;
create table file_data(context string) partitioned by (file_name string)row format delimited fields terminated by '\n'stored as textfile;
2、从hdfs中把文件数据导入file_data
[root@hadoop001 hadoop]# cat /home/hadoop/demo.txt 
hello world
hello hadoop
hello hive
hello spark
hello java
hello c++


load data local inpath '/home/hadoop/demo.txt' overwrite into table file_data PARTITION(file_name='/home/hadoop/demo.txt');


hive> select * from file_data;
OK
hello world     /home/hadoop/demo.txt
hello hadoop    /home/hadoop/demo.txt
hello hive      /home/hadoop/demo.txt
hello spark     /home/hadoop/demo.txt
hello java      /home/hadoop/demo.txt
hello c++       /home/hadoop/demo.txt
Time taken: 0.087 seconds, Fetched: 6 row(s)


3、根据' '切分数据,切分出来的每个单词作为一行 记录到结果表。
select explode(split(context,' ')) from file_data where file_name='/home/hadoop/demo.txt';
drop table wordcount;
create table wordcount(context string) partitioned by (file_name string)row format delimited fields terminated by ' 'stored as textfile;
insert overwrite table wordcount partition(file_name='/home/hadoop/demo.txt') select explode(split(context,' ')) from file_data where file_name='/home/hadoop/demo.txt';
4、聚合,使用hql查询,检查结果是否与预期一致

select context, count(context) from wordcount where file_name='/home/hadoop/demo.txt' group by context;

Total MapReduce CPU Time Spent: 2 seconds 790 msec
OK
c++     1
hadoop  1
hello   6
hive    1
java    1
spark   1
world   1

Time taken: 24.791 seconds, Fetched: 7 row(s)


【来自@若泽大数据】

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值