前言
简单的归纳了一下hive的使用 包括命令行参数 和 启动时的一些配置参数 最后简单的编写了个UDF函数
1 . Hive 命令行
输入$HIVE_HOME/bin/hive –H
或者 –help
可以显示帮助选项:
说明:
1、 -i 初始化 HQL 文件。
2、 -e 从命令行执行指定的 HQL
3、 -f 执行 HQL 脚本
4、 -v 输出执行的 HQL 语句到控制台
5、 -p connect to Hive Server on port number
6、 -hiveconf x=y Use this to set hive/hadoop configuration variables.
例如:
$HIVE_HOME/bin/hive -e 'select * from tab1 a'
$HIVE_HOME/bin/hive -f /home/my/hive-script.sql
$HIVE_HOME/bin/hive -f hdfs://<namenode>:<port>/hive-script.sql
$HIVE_HOME/bin/hive -i /home/my/hive-init.sql
$HIVE_HOME/bin/hive -e 'select a.col from tab1 a'
--hiveconf hive.exec.compress.output=true
--hiveconf mapred.reduce.tasks=32
2 . Hive 参数配置
Hive 参数大全:https://cwiki.apache.org/confluence/display/Hive/Configuration+Properties
开发 Hive 应用时,不可避免地需要设定 Hive 的参数。
设定 Hive 的参数可以调优 HQL 代码的执行效率,或帮助定位问题。
然而实践中经常遇到的一个问题是,
为什么设定的参数没有起作用?
这通常是错误的设定方式导致的。
对于一般参数,有以下三种设定方式:
- 配置文件 (全局有效)
- 命令行参数 (对 hive 启动实例有效)
- 参数声明 (对 hive 的连接 session 有效)
配置文件
用户自定义配置文件:$HIVE_CONF_DIR/hive-site.xml
默认配置文件:$HIVE_CONF_DIR/hive-default.xml
用户自定义配置
会覆盖默认配置
。
另外,Hive 也会读入 Hadoop 的配置,因为 Hive 是作为 Hadoop 的客户端启动的,Hive 的配置会覆盖 Hadoop 的配置。
配置文件的设定对本机启动的所有 Hive 进程都有效。
命令行参数
启动 Hive(客户端或 Server 方式)时,可以在命令行添加-hiveconf
来设定参数
例如:bin/hive -hiveconf hive.root.logger=INFO,console
设定对本次启动的 Session(对于 Server 方式启动,则是所有请求的 Sessions)有效。
参数声明
可以在 HQL 中使用 SET 关键字设定参数,这一设定的作用域也是 session 级的。
比如:
set hive.exec.reducers.bytes.per.reducer=<number>
每个 reduce task 的平均负载数据量
set hive.exec.reducers.max=<number>
设置 reduce task 数量的上限
set mapreduce.job.reduces=<number>
指定固定的 reduce task 数量
但是,这个参数在必要时<业务逻辑决定只能用一个 reduce task> hive 会忽略
上述三种设定方式的优先级依次递增。即参数声明覆盖命令行参数,命令行参数覆盖配置文件设定。注意某些系统级的参数,例如 log4j 相关的设定,必须用前两种方式设定,因为那些参数的读取在 Session 建立以前已经完成了。
2 . Hive 的UDF函数
当 Hive 提供的内置函数无法满足你的业务处理需要时,此时就可以考虑使用用户自定义函数(UDF:user-defined function)。
测试各种内置函数的快捷方法:
创建一个 dual 表
create table dual(id string);
load
一个文件(只有一行内容:内容为一个空格)到 dual 表
新建 JAVA maven
项目
添加依赖
<dependencies>
<dependency>
<groupId>org.apache.hive</groupId>
<artifactId>hive-exec</artifactId>
<version>1.2.1</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.7.4</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-shade-plugin</artifactId>
<version>2.2</version>
<executions>
<execution>
<phase>package</phase>
<goals>
<goal>shade</goal>
</goals>
<configuration>
<filters>
<filter>
<artifact>*:*</artifact>
<excludes>
<exclude>META-INF/*.SF</exclude>
<exclude>META-INF/*.DSA</exclude>
<exclude>META-INF/*.RSA</exclude>
</excludes>
</filter>
</filters>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
编写一个 java 类,继承 UDF
,并重载 evaluate
方法
import org.apache.hadoop.hive.ql.exec.UDF;
/**
* hive的自定义函数
*/
public class ItcastFunc extends UDF{
//重载
public String evaluate(String input){
return input.toLowerCase();//将大写字母转换成小写
}
public int evaluate(int a,int b){
return a+b;//计算两个数之和
}
}
打成 jar 包上传到服务器
具体步骤 在终端
mvn clean
mvn package
将 jar 包添加到 hive 的 classpath
hive>add JAR /root/hivedata/udf.jar;
创建临时函数与开发好的 java class 关联
create temporary function udffunc as 'hive.udf.UDFFunc';
temporary表示为临时方法,当会话结束后失效;
udffunc为hive中定义的函数名,‘hive.udf.UDFFunc’为自定义方法的全类路径
在 hive中使用自定义的函数
select udffunc("ABC") from dual;//输出abc
select udffunc(2,3) from dual;//输出5