安装
1.解压:
// 先进入到你放hive压缩包的位置,进行解压(本人的hive压缩包在/export/soft目录下)
cd /export/soft
//进行解压 -C 后面为解压目录
tar -zxvf hive-1.1.0-cdh5.14.0.tar.gz -C ../servers/
2.直接启动hive
cd ../servers/hive-1.1.0-cdh5.14.0/
bin/hive
缺点:多个地方安装hive后,每一个hive是拥有一套自己的元数据,大家的库、表就不统一;接下来的操作就是弥补这个缺点
使用mysql共享hive元数据
mysql数据库的安装
第一步:在线安装mysql相关的软件包
yum install mysql mysql-server mysql-devel
第二步:启动mysql的服务
/etc/init.d/mysqld start
chkconfig mysqld on
第三步:进入mysql的客户端然后进行授权(注意:这是在mysql中shell窗口的操作)
use mysql;
配置远程连接(注意:这是在mysql中shell窗口的操作)
grant all privileges on *.* to 'root'@'%' identified by '123456' with grant option;
flush privileges;
第四步 设置root用户链接mysql的密码
update user set password=password('123456') where user='root';
flush privileges;
修改hive的配置文件
添加我们的hadoop的环境变量:
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
cp hive-env.sh.template hive-env.sh
vim hive-env.sh
HADOOP_HOME=/export/servers/hadoop-2.6.0-cdh5.14.0
#/ Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=/export/servers/hive-1.1.0-cdh5.14.0/conf
修改hive-site.xml
cd /export/servers/hive-1.1.0-cdh5.14.0/conf
vim hive-site.xml
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node03:3306/hive?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node03</value>
</property>
<!--
<property>
<name>hive.metastore.uris</name>
<value>thrift://node03:9083</value>
</property>
-->
</configuration>
上传mysql的lib驱动包
cd /export/servers/hive-1.1.0-cdh5.14.0/lib
将 mysql-connector-java-5.1.38.jar 上传到这个目录下
远程分发到其他节点上
/export/servers/hive-1.1.0-cdh5.14.0/是hive解压的目录
node0503是与ip对应的主机名
建议配置一下hive的环境变量
vim /etc/profile.d/hive.sh
文件内容:
然后 source /etc/profile 刷新一下
把这个环境变量配置文件分发到其他节点上,然后在其他节点也刷新一下source /etc/profile
最后:进行测试
在某个节点hive shell窗口中创建一个数据库,其他节点show databases;也能看得到,hive安装和部署就成功了。
一定是其他节点: