hive的配置步骤
我用的是VMware Workstation 14 ,centOS 7.
先到官网下载最新版本linux系统的hive,我用的是2.3.2版本的,官网apache.hive
下载下来传到Hadoop上,
之后解压,开始配置文件,再~目录下输入 vi .bashrc 配置
export HIVE_HOME=/home/hadoop/apache-hive-2.3.2-bin
后面的路径是你hive解压的路径,保存退出,
配置mysql链接url的参数设置
打开apache-hive-2.3.2-bin/conf目录
创建并打开一个hive-site.xml文件 ,vi hive-site.xml配置
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.execution.engine</name>
<value>spark</value>
</property>
<!--mysql数据库的jdbc链接地址-->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive_metastore?autoReconnect=true&useUnicode=true&createDatabaseIfNotExist=true&characterEncoding=utf8</value>
</property>
<!--mysql数据库的jdbc驱动-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!--mysql数据库的用户名-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
复制记得去掉注释,
保存退出。
启动hadoop,start-dfs.sh,因为hive存储数据在hdfs上。
然后到apache-hive-2.3.2-bin/bin的目录下输入
./schematool -dbType mysql -initSchema
然后进入mysql查看有没有之前hive-site.xml文件中的hive_metastore数据库,有的话就对了,
apache-hive-2.3.2-bin/bin可以看到这些
到apache-hive-2.3.2-bin/bin启动hiveserver2,命令./hiveserver2
等待成功再在这个目录启动beeline ,命令./beeline -u jdbc:hive2:// -nhadoop ,-n后面是用户
看到这个就成功了