安装事项:
一、 解压安装hive-0.7.1.tar.gz
配置HIVE_HOME路径
二、 在HDFS中为HIVE创建相关目录,存放创建表文件数据:
创建并修改权限:
hadoop fs –mkdir /tmp
hadoop fs –mkdir /user/hive/warehouse
hadoop fs –chmod g+w /tmp
hadoop fs –chmod g+w /user/hive/warehouse
三、部署HIVE多用户环境,
hive-site.xml:
四、测试连接:
到$HIVE_HOME/bin目录下,
安装整合Hadoop成功。
一、 解压安装hive-0.7.1.tar.gz
配置HIVE_HOME路径
二、 在HDFS中为HIVE创建相关目录,存放创建表文件数据:
创建并修改权限:
hadoop fs –mkdir /tmp
hadoop fs –mkdir /user/hive/warehouse
hadoop fs –chmod g+w /tmp
hadoop fs –chmod g+w /user/hive/warehouse
三、部署HIVE多用户环境,
创建共享的SQL数据库存储元数据metastore_db,
在$HIVE_HOME/conf下,创建hive-site.xml文件配置相关变量信息覆盖hive-default.xml中默认配置信息:
hive-site.xml:
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.30.148:3306/metastore_db?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
四、测试连接:
到$HIVE_HOME/bin目录下,
安装整合Hadoop成功。