hive练习

Hive练习

更多详细内容请前往我的个人博客

部门信息表
create table if not exists dept(
deptno int,
dname string, 
loc int
)
row format delimited fields terminated by ',';
员工信息表
create table if not exists emp(
empno int,
ename string,
job string,
mgr int,
hiredate string,
sal double,
comm double,
deptno int)
row format delimited fields terminated by ',';

// 根据员工表部门表编号相等,查员工编号、名称和部门名称 内连接

在这里插入图片描述

select 
    e.empno,
    e.ename,
    d.dname
from
    emp e 
join 
    dept d
on
    e.deptno = d.deptno;

// 根据员工表部门表编号相等,查员工编号、名称,部门编号和部门名称 左外连接

2 LEFT JOIN (左外连接)

在这里插入图片描述

select 
    e.empno,
    e.ename,
    e.deptno,
    d.dname
from
    emp e 
left join 
    dept d
on
    e.deptno = d.deptno;

// 查询所有部门对应的员工信息 右外连接

3 RIGHT JOIN (右外连接)

在这里插入图片描述

select 
    e.empno,
    e.ename,
    e.deptno,
    d.dname
from
    emp e 
right join 
    dept d
on
    e.deptno = d.deptno;

// 查询所有部门信息和员工信息 全连接

4.FULL JOIN (全连接)

在这里插入图片描述

select 
    e.empno,
    e.ename,
    d.deptno,
    d.dname
from
    emp e 
full join 
    dept d
on
    e.deptno = d.deptno;

select 
    e.empno,
    e.ename,
    nvl(e.deptno,d.deptno),
    d.dname
from
    emp e 
full join 
    dept d
on
    e.deptno = d.deptno;

// 查询员工信息,所在的部门信息为NULL

5 LEFT JOIN EXCLUDING INNER JOIN (左连接 - 内连接)

在这里插入图片描述

select 
    e.empno,
    e.ename,
    e.deptno,
    d.dname
from
    emp e 
left join 
    dept d
on
    e.deptno = d.deptno
where d.deptno is null;

// 查询部门中不存在任何员工的部门信息

6 RIGHT JOIN EXCLUDING INNER JOIN (右连接 - 内连接)

在这里插入图片描述

select 
    d.deptno,
    d.dname
from
    emp e 
right join 
    dept d
on
    e.deptno = d.deptno
where e.deptno is null;

// 查询员工特有的信息以及部门特有的信息

7 FULL OUTER JOIN EXCLUDING INNER JOIN (外连接 - 内连接)

在这里插入图片描述

select 
    e.empno,
    e.ename,
    e.deptno,
    d.deptno,
    d.dname
from
    emp e 
full join 
    dept d
on
    e.deptno = d.deptno
where e.deptno is null or d.deptno is null;

// 查询员工姓名,部门名称以及部门所在城市

select 
    e.empno,
    d.dname,
    l.loc_name
from
    emp e 
join 
    dept d
on
    e.deptno = d.deptno
join
    location l
on
    d.loc = l.loc;
大多数情况下,Hive 会对每对 JOIN 连接对象启动一个 MapReduce 任务。本例中会首先 启动一个 MapReduce job 对表 e 和表 d 进行连接操作,然后会再启动一个 MapReduce job 将 第一个 MapReduce job 的输出和表 l;进行连接操作。
注意:为什么不是表 d 和表 l 先进行连接操作呢?这是因为 Hive 总是按照从左到右的 顺序执行的。
优化:当对 3 个或者更多表进行 join 连接时,如果每个 on 子句都使用相同的连接键的 话,那么只会产生一个 MapReduce job。
常用函数

1、求总行数(count)

hive (default)> select count(*) cnt from emp; 

2、求工资的最大值(max)

hive (default)> select max(sal) max_sal from emp; 

3、求工资的最小值(min)

hive (default)> select min(sal) min_sal from emp;

4、求工资的总和(sum)

hive (default)> select sum(sal) sum_sal from emp; 

5、求工资的平均值(avg)

hive (default)> select avg(sal) avg_sal from emp; 
Group By语句

(1)计算 emp 表每个部门的平均工资

hive (default)> select t.deptno, avg(t.sal) avg_sal from emp t group by t.deptno;

hive (default)>select deptno,avg(sal) avg_sal from emp group by deptno;

(2)计算 emp 每个部门中每个岗位的最高薪水

hive (default)> select t.deptno, t.job, max(t.sal) max_sal from emp t group by
t.deptno, t.job;

hive (default)> select deptno,job,max(sal) max_sal from emp group by deptno,job;
Having 语句
having 只用于 group by 分组统计语句。

(1)求每个部门的平均薪水大于 2000 的部门

hive (default)> select deptno, avg(sal) avg_sal from emp group by deptno having avg_sal > 2000;

hive (default)> select deptno,avg(sal) avg_sal from emp group by deptno having avg_sal >2000;
分区表基本操作
1、创建分区表语法
hive (default)> create table dept_partition( deptno int, dname string)
partitioned by (day string)
row format delimited fields terminated by ',';

*数据准备*

在这里插入图片描述

*加载数据*

hive (test)> load data local inpath '/usr/local/test_data/hive/dept_20200401.log' into table dept_partition partition(day='20200401');

hive (test)> load data local inpath '/usr/local/test_data/hive/dept_20200402.log' into table dept_partition partition(day='20200402');

hive (test)> load data local inpath '/usr/local/test_data/hive/dept_20200403.log' into table dept_partition partition(day='20200403');

*查询分区表中数据*

单分区查询

select * from dept_partition where day='20200401'; 

多分区联合查询

select * from dept_partition where day='20200401'
union
select * from dept_partition where day='20200402' 
union
select * from dept_partition where day='20200403';

select * from dept_partition where day='20200401' or day='20200402' or day='20200403'; 
1、CASE WHEN THEN ELSE END

准备数据

[atguigu@hadoop102 datas]$ vi emp_sex.txt
悟空,A,男
大海,A,男
宋宋,B,男
凤姐,A,女
婷姐,B,女
婷婷,B,

创建 hive 表并导入数据

create table emp_sex( name string,
dept_id string, sex string)
row format delimited fields terminated by ",";

load data local inpath '/opt/module/hive/data/emp_sex.txt' into table emp_sex;

求出不同部门男女各多少人。结果如下:

dept_Id	男	女
A	2	1
B	1	2

按需求查询数据

select dept_id,
sum(case sex when '男' then 1 else 0 end) male_count,
sum(case sex when '女' then 1 else 0 end) female_count from emp_sex
group by dept_id;
2、行转列

CONCAT(string A/col, string B/col…):返回输入字符串连接后的结果,支持任意个输入字 符串;

CONCAT_WS(separator, str1, str2,…):它是一个特殊形式的 CONCAT()。第一个参数剩余参 数间的分隔符。分隔符可以是与剩余参数一样的字符串。如果分隔符是 NULL,返回值也将 为 NULL。这个函数会跳过分隔符参数后的任何 NULL 和空字符串。分隔符将被加到被连接 的字符串之间;

注意: CONCAT_WS must be "string or array

COLLECT_SET(col):函数只接受基本数据类型,它的主要作用是将某字段的值进行去重 汇总,产生 Array 类型字段。

准备数据

[atguigu@hadoop102 datas]$ vim person_info.txt
孙悟空,白羊座,A
大海,射手座,A
宋宋,白羊座,B 
猪八戒,白羊座,A
凤姐,射手座,A
苍老师,白羊座,B

创建hive表并导入数据

create table person_info( name string, constellation string, blood_type string)
row format delimited fields terminated by ",";

load data local inpath "/opt/module/hive/data/person_info.txt" into table person_info

需求

把星座和血型一样的人归类到一起。结果如下:

射手座,A 	大海|凤姐
白羊座,A 	孙悟空|猪八戒
白羊座,B 	宋宋|苍老师
# 将星座和血型拼接在一起
select
    concat(constellation,',',blood_type) con_blood,
    name
from person_info;

# 聚合相同星座血型人的姓名	
select
    con_blood,
    collect_set(name) name_arr
from
(select
    concat(constellation,',',blood_type) con_blood,
    name
from person_info)t1
group by con_blood;
# 结果:
射手座,A	["大海","凤姐"]
白羊座,A	["孙悟空","猪八戒"]
白羊座,B	["苍老师"]
白羊座,B 	["宋宋"]
############################################################

select
    con_blood,
    concat_ws('|',name_arr)
from
(select
    con_blood,
    collect_set(name) name_arr
from
(select
    concat(constellation,',',blood_type) con_blood,
    name
from person_info)t1
group by con_blood)t2;
# 结果:
射手座,A	大海|凤姐
白羊座,A	孙悟空|猪八戒
白羊座,B	苍老师
白羊座,B 	宋宋

# 合并
select
    con_blood,
    concat_ws('|',collect_set(name))
from
(select
    concat(constellation,',',blood_type) con_blood,
    name
from person_info)t1
group by con_blood;
# 结果:
射手座,A	大海|凤姐
白羊座,A	孙悟空|猪八戒
白羊座,B	苍老师
白羊座,B 	宋宋

按需求查询数据

SELECT
t1.c_b,
CONCAT_WS("|",collect_set(t1.name))
FROM (
SELECT
NAME,
CONCAT_WS(',',constellation,blood_type) c_b FROM person_info
)t1
GROUP BY t1.c_b;
# 结果:
射手座,A	大海|凤姐
白羊座,A	孙悟空|猪八戒
白羊座,B	苍老师
白羊座,B 	宋宋

列转行

EXPLODE(col):将 hive 一列中复杂的 Array 或者 Map 结构拆分成多行

LATERAL VIEW

用法:LATERAL VIEW udtf(expression)(炸裂字段) tableA(侧写表名) AS columnAlias(炸裂出的字段)

解释:用于和 split, explode 等 UDTF 一起使用,它能够将一列数据拆成多行数据,在此 基础上可以对拆分后的数据进行聚合。

准备数据:

movie_info.movie	movie_info.category
《疑犯追踪》	悬疑,动作,科幻,剧情
《Lie to me》	悬疑,警匪,动作,心理,剧情
《战狼 2》	战争,动作,灾难

需求:

将电影分类中的数组数据展开。结果如下:

《疑犯追踪》	悬疑
《疑犯追踪》	动作
《疑犯追踪》	科幻
《疑犯追踪》	剧情
《Lie to me》	悬疑
《Lie to me》	警匪
《Lie to me》	动作
《Lie to me》	心理
《Lie to me》	剧情
《战狼 2》	战争
《战狼 2》	动作
《战狼 2》	灾难

创建hive表并导入数据

create table movie_info( movie string, category string)
row format delimited fields terminated by "\t";

load data local inpath "/opt/module/data/movie.txt" into table movie_info;

按需求查询数据

# 对category字段进行按“,”切割转化为一列
select explode(split(category,',')) from movie_info;

# 结果SQL
SELECT
movie, category_name
FROM movie_info
lateral VIEW explode(split(category,",")) movie_info_tmp AS category_name;
窗口函数(开窗函数)
1、相关函数说明

OVER():指定分析函数工作的数据窗口大小,这个数据窗口大小可能会随着行的变而变化

CURRENT ROW:当前行

n PRECEDING:往前 n 行数据 n FOLLOWING:往后 n 行数据 UNBOUNDED:起点,

UNBOUNDED PRECEDING 表示从前面的起点,

UNBOUNDED FOLLOWING 表示到后面的终点 LAG(col,n,default_val):往前第 n 行数据 LEAD(col,n, default_val):往后第 n 行数据

NTILE(n):把有序窗口的行分发到指定数据的组中,各个组有编号,编号从 1 开始,对 于每一行,NTILE 返回此行所属的组的编号。注意:n 必须为 int 类型。

2、数据准备:name,orderdate,cost
jack,2017-01-01,10
tony,2017-01-02,15
jack,2017-02-03,23
tony,2017-01-04,29
jack,2017-01-05,46
jack,2017-04-06,42
tony,2017-01-07,50
jack,2017-01-08,55
mart,2017-04-08,62
mart,2017-04-09,68
neil,2017-05-10,12
mart,2017-04-11,75
neil,2017-06-12,80
mart,2017-04-13,94
3、创建hive表和导入数据
create table business( name string,orderdata string,cost int)
ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';
load data local inpath "/opt/module/data/business.txt" into table business;
4、需求

(1)查询在 2017 年 4 月份购买过的顾客及总人数

select name,count(*) over() 
from business 
where substring(orderdata,0,7)='2017-04'
group by name;

(2)查询顾客的购买明细及月购买总额

# 查询顾客的购买明细及顾客购买总额
select name,orderdata,cost,sum(cost) over(partition by name) from business;
# 查询顾客的购买明细及顾客月购买总额
select name,orderdata,cost,sum(cost) over(partition by name,month(orderdata))
from business;
# 查询顾客的购买明细及月购买总额
select name,orderdata,cost,sum(cost) over(partition by month(orderdata)) from business;

(3)上述的场景, 将每个顾客的 cost 按照日期进行累加

select name,orderdata,cost,sum(cost) over(partition by name order by orderdata) 
from business;
select name,orderdate,cost,
--所有行相加
sum(cost) over() as sample1,
--按 name 分组,组内数据相加 sum(cost) 
sum(cost) over(partition by name) as sample2,
--按 name 分组,组内数据累加
sum(cost) over(partition by name order by orderdate) as sample3,
--和 sample3 一样,由起点到 当前行的聚合
sum(cost) over(partition by name order by orderdate rows between UNBOUNDED PRECEDING and current row ) as sample4 ,
--当前行和前面一行做聚合
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING and current row) as sample5,
--当前行和前边一行及后面一行
sum(cost) over(partition by name order by orderdate rows between 1 PRECEDING AND 1 FOLLOWING ) as sample6,
--当前行及后面所有行
sum(cost) over(partition by name order by orderdate rows between current row and UNBOUNDED FOLLOWING ) as sample7 
from business;

(4)查询每个顾客上次的购买时间

# 查询每个顾客上次的购买时间
select name,orderdata,lag(orderdata,1) over(partition by name order by orderdata ) from business;
# 查询每个顾客下次的购买时间,lead(orderdata,1,orderdata(可选项,这里指自己))
select name,orderdata,lead(orderdata,1,orderdata) over(partition by name order by orderdata ) from business;

(5)查询前 20%时间的订单信息

select name,orderdata,cost from (select name,orderdata,cost,ntile(5) over(order by orderdata) groupid from business)t1 where groupid = 1;
Rank函数
Rank() 排序相同时会重复,总数不会变
Dense_rank() 排序相同时会重复,总数会减少
Row_number() 会根据顺序计算

准备数据:

name	subject	score
孙悟空	语文	87
孙悟空	数学	95
孙悟空	英语	68
大海	语文	94
大海	数学	56
大海	英语	84
宋宋	语文	64
宋宋	数学	86
宋宋	英语	84
婷婷	语文	65
婷婷	数学	85
婷婷	英语	78

创建hive表和导入数据

create table score( name string, subject string, score int)
row format delimited fields terminated by "\t";
load data local inpath '/opt/module/data/score.txt' into table score;

1、按照分数全局排列(计算成绩排名)

# rank()总数不变
select name,subject,score,rank() over(order by score) from score; 
# dense_rank()总数改变(有排名相同时)
select name,subject,score,dense_rank() over(order by score) from score;
# row_number() 总数不变(按照行号排列)
select name,subject,score,row_number() over(order by score) from score;

结果(rank):

name	subject	score	rank_window_0
大海	数学	56	1
宋宋	语文	64	2
婷婷	语文	65	3
孙悟空	英语	68	4
婷婷	英语	78	5
宋宋	英语	84	6
大海	英语	84	6
婷婷	数学	85	8
宋宋	数学	86	9
孙悟空	语文	87	10
大海	语文	94	11
孙悟空	数学	95	12
Time taken: 1.987 seconds, Fetched: 12 row(s) # 结果数不变

2、按学科对成绩进行排列(计算每门学科成绩排名)

select name,subject,score,rank() over(partition by subject order by score) from score;

结果:

name	subject	score	rank_window_0
大海	数学	56	1
婷婷	数学	85	2
宋宋	数学	86	3
孙悟空	数学	95	4
孙悟空	英语	68	1
婷婷	英语	78	2
宋宋	英语	84	3
大海	英语	84	3
宋宋	语文	64	1
婷婷	语文	65	2
孙悟空	语文	87	3
大海	语文	94	4
Time taken: 1.693 seconds, Fetched: 12 row(s)

3、获取每学科成绩的前三名信息

select name,subject,score,rk 
from
(select *,rank() over(partition by subject order by score desc) rk from score)t1
where rk<=3;

结果:

name	subject	score	rk
孙悟空	数学	95	1
宋宋	数学	86	2
婷婷	数学	85	3
大海	英语	84	1
宋宋	英语	84	1
婷婷	英语	78	3
大海	语文	94	1
孙悟空	语文	87	2
婷婷	语文	65	3
Time taken: 1.494 seconds, Fetched: 9 row(s)
需求描述

统计硅谷影音视频网站的常规指标,各种 TopN 指标:

– 统计视频观看数 Top10

– 统计视频类别热度 Top10

– 统计出视频观看数最高的 20 个视频的所属类别以及类别包含 Top20 视频的个数

– 统计视频观看数 Top50 所关联视频的所属类别排序

– 统计每个类别中的视频热度 Top10,以 Music 为例

– 统计每个类别视频观看数 Top10

– 统计上传视频最多的用户 Top10 以及他们上传的视频观看次数在前 20 的视频

数据结构

视频表

字段备注详细描述
videoId视频唯一 id(String)11 位字符串
uploader视频上传者(String)上传视频的用户名 String
age视频年龄(int)视频在平台上的整数天
category视频类别(Array)上传视频指定的视频分类
length视频长度(Int)整形数字标识的视频长度
views观看次数(Int)视频被浏览的次数
rate视频评分(Double)满分 5 分
Ratings流量(Int)视频的流量,整型数字
conments评论数(Int)一个视频的整数评论数
relatedId相关视频 id(Array)相关视频的 id,最多 20 个

用户表

字段备注字段类型
uploader上传者用户名string
videos上传视频数int
friends朋友数量int
建表

需要准备的表

创建原始数据表:gulivideo_ori,gulivideo_user_ori,

创建最终表:gulivideo_orc,gulivideo_user_orc

创建原始数据表

(1)gulivideo_ori

create table gulivideo_ori(
videoId string, uploader string, age int,
category array<string>, length int,
views int, rate float, ratings int, comments int,
relatedId array<string>)
row format delimited fields terminated by "\t" 
collection items terminated by "&"
stored as textfile;

(2)gulivideo_user_ori

create table gulivideo_user_ori(
uploader string,
videos int, friends int)
row format delimited fields terminated by "\t" stored as textfile;

创建 orc 存储格式带 snappy 压缩的表:

(1)gulivideo_orc

create table gulivideo_orc( videoId string, uploader string,
age int,
category array<string>, length int,
views int, rate float, ratings int, comments int,
relatedId array<string>) stored as orc
tblproperties("orc.compress"="SNAPPY");

(2)gulivideo_user_orc

create table gulivideo_user_orc( uploader string,
videos int, friends int)
row format delimited fields terminated by "\t" stored as orc
tblproperties("orc.compress"="SNAPPY");

(3)向 ori 表插入数据

load data local inpath "/opt/module/data/video" into table gulivideo_ori;
load data local inpath "/opt/module/user" into table gulivideo_user_ori;

(4)向 orc 表插入数据

insert into table gulivideo_orc select * from gulivideo_ori;
insert into table gulivideo_user_orc select * from gulivideo_user_ori;

1、统计视频观看数 Top10

思路:使用 order by 按照 views 字段做一个全局排序即可,同时我们设置只显示前 10

条。

最终代码:

SELECT
videoId,views
FROM
gulivideo_orc ORDER BY
views DESC LIMIT 10;

2、统计视频类别热度 Top10(类别热度:每个类别下的视频数)

思路:

(1)即统计每个类别有多少个视频,显示出包含视频最多的前 10 个类别。

(2)我们需要按照类别 group by 聚合,然后 count 组内的 videoId 个数即可。

(3)因为当前表结构为:一个视频对应一个或多个类别。所以如果要 group by 类别, 需要先将类别进行列转行(展开),然后再进行 count 即可。

(4)最后按照热度排序,显示前 10 条。

最终代码:

# 1、将类别列炸开
select category_name from gulivideo_orc 
lateral view explode(category) category_tmp as category_name;t1

# 2、按照类别分组,求count,并按照count排序,取前十
select
category_name,count(*) ct
from 
t1
group by category_name
order by ct desc limit 10;

# 最终SQL
select
category_name,
count(*) ct
from 
(
select category_name from gulivideo_orc 
lateral view explode(category) category_tmp as category_name
)t1
group by t1.category_name
order by ct desc limit 10;

3、统计出视频观看数最高的 20 个视频的所属类别以及类别包含 Top20 视频的个数

思路:

(1)先找到观看数最高的 20 个视频所属条目的所有信息,降序排列

(2)把这 20 条信息中的 category 分裂出来(列转行)

(3)最后查询视频分类名称和该分类下有多少个 Top20 的视频

最终代码:

# 1、求出视频观看数最高的20个视频的所属类别
SELECT
category,views
FROM
gulivideo_orc 
ORDER BY views DESC LIMIT 20;t1
# 2、将所属类别炸开
select category_name from gulivideo_orc 
lateral view explode(category) category_tmp as category_name;t1
# 3、计算各个类别包含Top20视频的个数
select
category_name,count(*) ct
from 
t2
group by category_name

# 最终SQL
SELECT 
t2.category_name, COUNT(t2.videoId) video_sum
FROM (
SELECT
t1.videoId, category_name
FROM  ( SELECT
videoId, views , category
FROM
gulivideo_orc ORDER BY
views DESC LIMIT 20
) t1
lateral VIEW explode(t1.category) t1_tmp AS category_name
) t2
GROUP BY t2.category_name;

4、统计视频观看数 Top50 所关联视频的所属类别排序

SELECT
t6.category_name, t6.video_sum,
rank() over(ORDER BY t6.video_sum DESC ) rk FROM
( SELECT
t5.category_name, COUNT(t5.relatedid_id) video_sum
FROM (
SELECT
t4.relatedid_id, category_name
FROM (    SELECT
t2.relatedid_id , t3.category
FROM  ( SELECT
relatedid_id FROM
( SELECT
videoId, views, relatedid
FROM
gulivideo_orc
ORDER BY
views DESC LIMIT 50
)t1
lateral VIEW explode(t1.relatedid) t1_tmp AS relatedid_id
)t2 JOIN
gulivideo_orc t3
ON
t2.relatedid_id = t3.videoId
) t4
lateral VIEW explode(t4.category) t4_tmp AS category_name
) t5 GROUP BY
t5.category_name ORDER BY
video_sum DESC
) t6;

5、统计每个类别中的视频热度 Top10,以 Music 为例

思路:

(1)要想统计 Music 类别中的视频热度 Top10,需要先找到 Music 类别,那么就需要将

category 展开,所以可以创建一张表用于存放 categoryId 展开的数据。

(2)向 category 展开的表中插入数据。

(3)统计对应类别(Music)中的视频热度。

统计 Music 类别的 Top10(也可以统计其他)

SELECT
t1.videoId, t1.views, t1.category_name
FROM (
SELECT
videoId, views, category_name
FROM gulivideo_orc
lateral VIEW explode(category) gulivideo_orc_tmp AS category_name
)t1 WHERE
t1.category_name = "Music" ORDER BY
t1.views DESC
LIMIT 10;

6、统计每个类别视频观看数 Top10

SELECT
t2.videoId, t2.views, t2.category_name, t2.rk
FROM  ( SELECT
t1.videoId, t1.views, t1.category_name,
rank() over(PARTITION BY t1.category_name ORDER BY t1.views DESC ) rk FROM
( SELECT
videoId, views, category_name
FROM gulivideo_orc
lateral VIEW explode(category) gulivideo_orc_tmp AS category_name
)t1
)t2
WHERE t2.rk <=10;

7、统计上传视频最多的用户 Top10 以及他们上传的视频观看次数在前 20 的视频

思路:

(1)求出上传视频最多的 10 个用户

(2)关联 gulivideo_orc 表,求出这 10 个用户上传的所有的视频,按照观看数取前 20

最终代码:

SELECT
t2.videoId, t2.views, t2.uploader
FROM (    SELECT
uploader, videos
FROM gulivideo_user_orc ORDER BY
videos DESC LIMIT 10
) t1
JOIN gulivideo_orc t2
ON t1.uploader = t2.uploader ORDER BY
t2.views DESC LIMIT 20;

c)中的视频热度。

统计 Music 类别的 Top10(也可以统计其他)

SELECT
t1.videoId, t1.views, t1.category_name
FROM (
SELECT
videoId, views, category_name
FROM gulivideo_orc
lateral VIEW explode(category) gulivideo_orc_tmp AS category_name
)t1 WHERE
t1.category_name = "Music" ORDER BY
t1.views DESC
LIMIT 10;
1.上传tar包 2.解压 tar -zxvf hive-1.2.1.tar.gz 3.安装mysql数据库 推荐yum 在线安装 4.配置hive (a)配置HIVE_HOME环境变量 vi conf/hive-env.sh 配置其中的$hadoop_home (b)配置元数据库信息 vi hive-site.xml 添加如下内容: javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true JDBC connect string for a JDBC metastore javax.jdo.option.ConnectionDriverName com.mysql.jdbc.Driver Driver class name for a JDBC metastore javax.jdo.option.ConnectionUserName root username to use against metastore database javax.jdo.option.ConnectionPassword hadoop password to use against metastore database 5.安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下 如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行) mysql -uroot -p #(执行下面的语句 *.*:所有库下的所有表 %:任何IP地址或主机都可以连接) GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION; FLUSH PRIVILEGES; 6. Jline包版本不一致的问题,需要拷贝hive的lib目录中jline.2.12.jar的jar包替换掉hadoop中的 /home/hadoop/app/hadoop-2.6.4/share/hadoop/yarn/lib/jline-0.9.94.jar 启动hive bin/hive ---------------------------------------------------------------------------------------------------- Hive几种使用方式: 1.Hive交互shell bin/hive 2.Hive JDBC服务(参考java jdbc连接mysql) 3.hive启动为一个服务器,来对外提供服务 bin/hiveserver2 nohup bin/hiveserver2 1>/var/log/hiveserver.log 2>/var/log/hiveserver.err & 启动成功后,可以在别的节点上用beeline去连接 bin/beeline -u jdbc:hive2://mini1:10000 -n root 或者 bin/beeline ! connect jdbc:hive2://mini1:10000 4.Hive命令 hive -e ‘sql’ bin/hive -e 'select * from t_test'
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值