一、安装前准备。
因为Hive是基于Hadoop平台的,所以安装Hive前确保Hadoop平台正常运行。
Hadoop版本为hadoop2.6.0
hive版本为hive-0.14.0
二、 安装
1.将hive拷贝到linux服务器。
2.tar -zvxf apache-hive-0.14.0-bin.tar.gz 解压hive的tar包。
3.执行vi /etc/profile 加入hive的配置如图:
4进入hive的conf目录中分别执行
cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
将模板配置文件复制并重命名。
执行 VI hive-env.sh加入 JAVA_HOME,HADOOP_HOME,HIVE_HOME三个环境变量
vi hive-site.xml
<property>
<name>javax.jdo.option.ConnectionURL</name>(连接字符串,这里采用的是mysql作为存储元数据)
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>(驱动名)
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>(mysql用户名)
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>(mysql密码)
<value>root</value>
</property>
<property>
<name>hive.querylog.location</name>(查询日志目录)
<value>/usr/local/hive-0.14.0/tmp</value>
</property>
<property>
<name>hive.exec.local.scratchdir</name>(存储不同阶段的map/reduce的执行计划的目录,同时也存储中间输出结果,默认是/tmp/<user.name>/hive,我们实际一般会按组区分,然后组内自建一个tmp目录存储)
<value>/usr/local/hive-0.14.0/tmp</value>
</property>
<property>(自定义目录)
<name>hive.downloaded.resources.dir</name>
<value>/usr/local/hive-0.14.0/tmp</value>
</property>
5将mysql的驱动包拷贝到hive安装目录的lib 目录中 例如 /usr/local/hive-0.14.0/lib (我使用的驱动为mysql-connector-java-5.1.17.jar )
三启动hive
任意地方执行hive命令即可
执行一个简单的show databases;命令,成功后显示默认的数据库名。
如图