hive用法

sql语句指定数据库名称是个好习惯;

GRANT根据roles,group,or individuals设置权限;

CREATE TABLE语句

指定数据在文件中如何被分割

CREATE TABLE jobs (id INT,title STRING, salary INT, posted TIMESTAMP)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY ',';

也可以terminated by '\t'。如果不指定hive就使用默认字段分割符(ASCII Control+A),不能打印出来,使用cat去看显示无意义字符。

使用EXTERNAL删除表时不删除数据,保障数据安全性。

CREATE EXTERNAL TABLE default.investors (name STRING, amount INT, share DECIMAL(4,3));

把数据从本地上传到HDFS合适位置:

hdfs dfs -put ~/**/investor /user/hive/warehouse/

STORED AS语句

CREATE TABLE jobs (id INT,title STRING, salary INT, posted TIMESTAMP)

STORED AS TEXTFILE;

Hive 默认文件格式就是TEXTFILE,不写这一句也行。但是当你view gibberish时设置为好。

LOCATION语法:

当数据量很多是,把数据复制到hive的数据仓库下不如从它目前位置抽取来的高效。并且当源数据改变时,复制的数据就过期了。指定HDFS之外的存储路径时候,路径要写完全。

CREATE TABLE jobs (id INT,title STRING, salary INT, posted TIMESTAMP)

LOCATION  '/s3a://bucket/folder/;

比较:EXTERNAL是指不被Hive管理,不是指不存储在hive的warehouse里面,重在“管理”。LOCATION语句才决定数据路径。

IF NOT EXISTS

当你写数据库或数据表的脚本时侯特别有用,不会再已经创建时抛出error。

CREATE TABLE IF NOT EXISTS table_name

用LIKE克隆表

相同的属性和列名定义,这时候用LIKE创建新表.

CREATE TABLE jobs LIKE investor;

使用Hive SerDes

SerDes代表serializer/deserializer,分别代表be stored和reading.OpenCSVSerde/JsonSerDe/RegexSerDe.

DESCRIBE tablename,查看columns in a table.

SHOW CREATE TABLE jobs;也可以通过“反应这张表所有的change”去了解表结构和属性。当需要重新创建表时特别有用。如果表使用hive的SerDes创建的,那么一定要在hive中执行语句DESCRIBE语句。

DROP TABLE IF EXISTS table_name;

比如存储在s3 bucket里面即使without EXTERNAL 也不能删除表。

出于安全原因,当你要删除的数据库含有表时,hive会抛出错误。你能过override这个安全特征,通过CASCADE.DROP DATABASE database_name CASCADE;

修改已存在的表

有时候删除和重建表更改要简单,你要小心,不要删除数据。这在传统数据库中是不行的(not feasible)。hive中由于data和metadat分离,通过external managed即使删除也不影响data。

ALTER TABLE customers RENAME TO clients;重命名

ALTER TABLE old.tablename RENAME TO new_database.tablename;移动到另一数据库

ALTER TABLE tablename CHANGE old_colname new_colname type;改列名后数据格式

ALTER TABLE employees CHANGE salary salary AFTER office_id;or use FIRST,修改列序

ALTER TABLE table_name ADD COLUMNS (col1 TYPE1, col2 TYPE2, ...);添加列

ALTER TABLE table_name DROP COLUMNS colname; hive中不能删除列,impala可以。

替换全部列:对删除多列有用,或则添加列到列序的中间位置.

ALTER TABLE table_name REPLACE COLUMNS (col1 TYPE1, col2 TYPE2,...)

ALTER TABLE table_name SET TBLPROPERTIES('EXTERNAL'='TRUE')

EXTERNAL and TRUE must be uppercase

<think>好的,我现在需要帮助用户了解Hive的使用方法,特别是数据操作和数据分析方面。用户提到了Hive使用教程、数据操作指南以及如何使用Hive进行数据分析。首先,我应该从基础开始,逐步引导用户,确保回答结构清晰,并且符合用户提到的系统级指令,比如正确使用LaTeX格式,生成相关问题等。 首先,用户可能对Hive的基本概念和用途不太清楚,所以需要先简单介绍Hive是什么,它的作用以及与Hadoop的关系。然后,按照用户的需求,分步骤讲解Hive的使用方法。例如,创建基础表、数据导入导出、数据查询和分析,以及多维数据分析等高级功能。 接下来,我需要参考用户提供的引用内容。引用[1]提到了使用Hive创建基础表,上传CSV文件到HDFS,这应该是数据准备阶段的重要步骤。引用[2]涉及Hive的多维数据统计,如GROUPING SETS和GROUPING__ID,这些都是高级数据分析技术,应该在基础操作之后介绍。 在编写步骤时,需要确保每个步骤都有具体的示例代码,并且用代码块格式。例如,创建表的HiveQL语句,数据导入的语句,以及使用GROUPING SETS的查询示例。同时,需要遵守LaTeX格式的要求,行内数学表达式用$...$,独立公式用$$...$$,但根据用户的问题,可能数学表达式较少,但如果有涉及统计公式的地方,比如聚合函数,可能需要使用LaTeX。 另外,用户要求生成相关问题,需要根据回答的内容提出几个相关的问题,帮助用户进一步学习。例如,关于Hive的分区表、性能优化、与关系型数据库的区别等。 最后,检查回答是否符合所有要求:结构清晰、正确使用格式、引用标记正确、使用中文回答。同时确保每个引用的位置自然,例如在提到上传文件到HDFS时添加[^1],在讲解多维统计时添加[^2]。 现在,整理思路,分步骤详细说明Hive的使用方法,从基础到高级操作,确保每个步骤都有示例代码,并在适当的位置添加引用。最后生成相关问题,帮助用户深入探索相关主题。</think>### Hive使用指南 #### 一、Hive基础操作 1. **数据准备** 将本地文件$China\_stn\_city.csv$上传至HDFS(分布式文件系统): ```bash hdfs dfs -put /home/data/China_stn_city.csv /user/hive/input/ ``` 这是创建Hive表的基础步骤[^1]。 2. **创建基础表** 使用HiveQL定义表结构: ```sql CREATE EXTERNAL TABLE IF NOT EXISTS station_city ( station_id STRING, province STRING, city STRING ) ROW FORMAT DELIMITED FIELDS TERMINATED BY &#39;,&#39; LOCATION &#39;/user/hive/input/&#39;; ``` #### 二、数据操作 3. **数据导入/导出** - 从HDFS加载数据到分区表: ```sql LOAD DATA INPATH &#39;/user/hive/input/&#39; INTO TABLE station_city PARTITION (dt=&#39;20231001&#39;); ``` - 导出查询结果到本地: ```sql INSERT OVERWRITE LOCAL DIRECTORY &#39;/tmp/output&#39; SELECT province, COUNT(station_id) FROM station_city GROUP BY province; ``` 4. **数据查询** 使用聚合函数进行基础统计: ```sql SELECT province, AVG(temperature), MAX(humidity) FROM weather_data WHERE dt BETWEEN &#39;20230101&#39; AND &#39;20230131&#39; GROUP BY province; ``` #### 三、多维数据分析 5. **GROUPING SETS高级统计** 实现多维度交叉统计: ```sql SELECT province, city, COUNT(station_id), GROUPING__ID FROM station_city GROUP BY province, city GROUPING SETS ((province, city), (province), ()); ``` 此方法可同时输出省份-城市、省份和全局三个维度的基站数量统计。 #### 四、数据分析扩展 6. **窗口函数应用** 计算时间序列滑动平均值: ```sql SELECT station_id, dt, AVG(temperature) OVER (PARTITION BY station_id ORDER BY dt ROWS BETWEEN 2 PRECEDING AND CURRENT ROW) FROM weather_data; ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值