5.1Hive安装部署

本文档详细介绍了在Linux Ubuntu 16.04环境下安装部署Hive的过程,包括Hive的特性、工作原理,以及如何配置Hive与MySQL的连接,确保Hive能够利用Hadoop进行数据处理。

Hive安装部署

字体:

实验目的

1.了解Hive的安装部署

2.了解Hive的工作原理

实验原理

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供简单的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。

Hive构建在基于静态批处理的Hadoop之上,由于Hadoop通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销。因此,Hive并不适合那些需要低延迟的应用,它最适合应用在基于大量不可变数据的批处理作业,例如,网络日志分析。

Hive的特点是:可伸缩(在Hadoop集群上动态的添加设备)、可扩展、容错、输出格式的松散耦合。

Hive将元数据存储在关系型数据库(RDBMS)中,比如MySQL、Derby中。

Hive有三种模式连接到数据,其方式是:单用户模式,多用户模式和远程服务模式。(也就是内嵌模式、本地模式、远程模式)。

 

实验环境

Linux Ubuntu 16.04

jdk-1.8.0_151-linux-x64

hadoop-2.6.5

hive-1.2.2

mysql

mysql-connector-java-5.1.45-bin.jar

实验内容

在已安装好的Hadoop环境基础上,安装并配置Hive。

实验步骤

1.首先在Linux本地,新建/data/hive1目录,用于存放所需文件。

1. sudo mkdir -p /usr/data/hive1  

切换目录到/usr/data/hive1下,下载hive所需安装包apache-hive-1.2.2-bin.tar.gz(下载地址:http://www.apache.org/dyn/closer.cgi/hive/)以及mysql-connector-java-5.1.45-bin.tar.gz(下载地址:https://dev.mysql.com/downloads/connector/j/到该目录下,所有文件在第五次课文件目录下均有。

1. cd /usr/data/hive1  

2.将/usr/data/hive1目录下的apache-hive-1.2.2-bin.tar.gz,解压缩到/usr/apps目录下。

1. sudo tar -zxvf apache-hive-1.2.2-bin.tar.gz -C /usr/apps/  

再切换到/usr/apps目录下,将该目录下apache-hive-1.2.2-bin,重命名为hive。

1. cd /usr/apps  

2. sudo mv apache-hive-1.2.2-bin/ hive  

3.使用gedit(或vi/vim)打开用户环境变量。

1. sudo gedit /etc/profile  

Hive的bin目录,添加到用户环境变量PATH中,然后保存退出。

1. #hive config  

2. export HIVE_HOME=/usr/apps/hive  

3. export PATH=$HIVE_HOME/bin:$PATH  

执行source命令,使Hive环境变量生效。

1. source etc/profile  

4.由于Hive需要将元数据,存储到Mysql中。所以需将/usr/data/hive1目录下的mysql-connector-java-5.1.45-bin.tar.gz解压缩,然后将里面的mysql-connector-java-5.1.45-bin.jar拷贝到hive的lib目录下。

1. sudo tar zxvf /usr/data/hive1/mysql-connector-java-5.1.45-bin.tar.gz

2. sudo cp /usr/data/hive1/mysql-connector-java-5.1.45/ mysql-connector-java-5.1.45-bin.jar /usr/apps/hive/lib/ 

5.下面配置Hive,切换到/apps/hive/conf目录下,并创建Hive的配置文件hive-site.xml。

1. cd /usr/apps/hive/conf  

2. touch hive-site.xml  

使用gedit(或vi/vim)打开hive-site.xml文件。

1. sudo gedit hive-site.xml  

并将下列配置项,添加到hive-site.xml文件中。

1. <configuration>  

2.     <property>  

3.         <name>javax.jdo.option.ConnectionURL</name>  

4.         <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExsit=true;characterEncoding=latin1</value>  

5.     </property>  

6.     <property>  

7.         <name>javax.jdo.option.ConnectionDriverName</name>  

8.         <value>com.mysql.jdbc.Driver</value>  

9.     </property>  

10.     <property>  

11.         <name>javax.jdo.option.ConnectionUserName</name>  

12.         <value>root</value>  

13.     </property>  

14.     <property>  

15.         <name>javax.jdo.option.ConnectionPassword</name>  

16.         <value>strongs</value>  

17.     </property>  

18. </configuration>  

由于Hive的元数据会存储在Mysql数据库中,所以需要在Hive的配置文件中,指定mysql的相关信息。

javax.jdo.option.ConnectionURL:数据库链接字符串。

javax.jdo.option.ConnectionDriverName:连接数据库的驱动包。

javax.jdo.option.ConnectionUserName:数据库用户名。

javax.jdo.option.ConnectionPassword:连接数据库的密码。

此处的数据库的用户名及密码,需要设置为自身系统的数据库用户名及密码。

6.另外,还需要告诉Hive,Hadoop的环境配置。所以我们需要修改hive-env.sh文件。

首先我们将hive-env.sh.template重命名为hive-env.sh。

1. sudo mv /usr/apps/hive/conf/hive-env.sh.template  /usr/apps/hive/conf/hive-env.sh  

使用gedit(或vi/vim)打开hive-env.sh文件。

1. sudo gedit hive-env.sh  

追加Hadoop的路径,以及Hive配置文件的路径到文件中。

1. # Set HADOOP_HOME to point to a specific hadoop install directory  

2. # HADOOP_HOME=${bin}/../../hadoop  

3. HADOOP_HOME=/usr/apps/hadoop  

4. # Hive Configuration Directory can be controlled by:  

5. # export HIVE_CONF_DIR=  

6. export HIVE_CONF_DIR=/usr/apps/hive/conf  

7.下一步是配置Mysql,用于存储Hive的元数据。

首先,需要保证Mysql已经启动。执行以下命令,查看Mysql的运行状态。

1. sudo service mysql status  

 

通过输出,可以看出Mysql未启动。所以需要执行启动命令。

1. sudo service mysql start  

如果未安装Mysql则需要执行安装命令。若我们的环境已安装Mysql,则无需执行此步。

1. sudo apt-get install mysql-server  

8.开启Mysql数据库。

1. mysql -u root -p  

此时会提示输入密码,此处密码为strongs

创建名为hive的数据库,编码格式为latin1,用于存储元数据。

1. create database hive CHARACTER SET latin1;  

 

查看数据库是否创建成功。

1. show databases;  

 

下面,输入exit退出Mysql。

1. exit  

9.执行测试。由于Hive对数据的处理,依赖MapReduce计算模型,所以需要保证Hadoop相关进程已经启动。

输入jps,查看进程状态。若Hadoop相关进程未启动,则需启动Hadoop。

1. /usr/apps/hadoop/sbin/start-all.sh  

启动Hadoop后,在终端命令行界面,直接输入hive便可启动Hive命令行模式。

1. hive  

输入HQL语句查询数据库,测试Hive是否可以正常使用。

1. show databases;  

 

至此Hive安装完毕。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值