1. 先在这里附上需要的安装包的下载地址
hive下载官网
mysql下载官网
2. 老规矩 ,下载前准备
- 首先你的
hadoop 集群要已经能够启动起来- /opt/software 存放安装包 ; /opt/module 存放下载好的软件;(当然你也可以放在你想要放的其他的地方,但要注意路径问题)
在机器上安装好mysql数据库,这里附上链接:mysql数据库在linux上安装下载
3. 将下载好的hive的tar.gz包进行解压
tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module
mv /opt/module/apache-hive-3.1.2-bin.tar.gz /opt/module/hive
上面又修改了一下名字, 更容易记忆,操作
4. 添加环境变量
vim /etc/profile.d/my_env.sh
#HIVE_HOME 向里面添加以下内容
export HIVE_HOME=/opt/module/hive
export PATH=$PATH:$HIVE_HOME/bin
//进行保存退出,并重新使修改的内容生效
source /etc/profile
5. 进行hive初始化,默认使用的是 derby(如果想用mysql作为底层数据库,可以跳过这一步)
#初始化
bin/shematool -dbType derby -initSchema
#解决jar包冲突问题
mv $HIVE_HOME/lib/log4j-slf4j-impl- 2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak
6. 这里最好更改一下日志的存放位置
cd conf/
#进行备份
mv hive-log4j2.properties.template hive-log4j2.properties
#修改日志的存放位置
vim hive-log4j2.properties
#日志修改属性:
property.hive.log.dir = /opt/module/hive-3.1.2/logs
7. 将 mysql的jdbc驱动连接包安装到 hive/lib下去
cp /opt/software/mysql-connector-java- 5.1.37.jar $HIVE_HOME/lib
8 .新建hive/conf/hive-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- jdbc 连接的 URL metastore数据库要先在mysql中进行创建 -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=falseuseSSL=false&createDatabaseIfNotExist=true&characterEncoding=UTF-8</value>
</property>
<!-- jdbc 连接的 Driver-->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<!-- jdbc 连接的 username 你实际mysql 的用户名-->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- jdbc 连接的 password 这里配置你实际自己mysql的秘密 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>000000</value>
</property>
<!-- Hive 元数据存储版本的验证 -->
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<!--元数据存储授权-->
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
<!-- Hive 默认在 HDFS 的工作目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
<!--打印 表的字段和所在数据库-->
<property>
<name>hive.cli.print.header</name>
<value>true</value>
</property>
<property>
<name>hive.cli.print.current.db</name>
<value>true</value>
</property>
9. 初始化hive
hive/bin/schematool -dbType mysql -initSchema #初始化
hive/bin/hive start #启动命令
hive/bin/hive stop #关闭命令
注意: 期间一定要注意你自己安装的路径和博主的不一样,注意路径问题

本文提供了一步一步的指导来帮助读者完成Hive的安装与配置过程,包括Hive安装包下载、环境变量设置、日志配置、JDBC驱动安装、hive-site.xml文件创建及初始化等关键步骤。
1万+

被折叠的 条评论
为什么被折叠?



