大数据平台 hive 部署
平台部署知识
文章讲解了 hive 的安装与部署 需要 Hadoop 以及 MySQL。
目录
文章目录
前期准备
在这里我们需要将 hive 的包下载下来,这边我们使用的就是 hive 的 3.1.2 版本,各位小伙伴可以先下载这个版本的压缩包,另外还需要注意,hive 依赖 Hadoop 平台,它会将数据存储到 HDFS 中,计算任务运行在 YARN 资源调度集群,所以我们需要先参照 《大数据平台中 Hadoop 部署》 文章来将 Hadoop 部署起来!
hive官网:https://hive.apache.org/
解压 hive 包
然后我们需要将 hive 解压到一个目录中,这里就是 hive 的安装目录了,下面是笔者解压之后的目录展示。
root@liming-virtual-machine:/opt/software/apache-hive-3.1.2-bin# ll
total 84
drwxr-xr-x 10 root root 4096 3月 14 2023 ./
drwxrwxrwx 13 root root 4096 2月 29 17:32 ../
drwxr-xr-x 3 root root 4096 3月 14 2023 bin/
drwxr-xr-x 2 root root 4096 3月 14 2023 binary-package-licenses/
drwxr-xr-x 2 root root 4096 3月 14 2023 conf/
drwxr-xr-x 4 root root 4096 3月 14 2023 examples/
drwxr-xr-x 7 root root 4096 3月 14 2023 hcatalog/
drwxr-xr-x 2 root root 4096 3月 14 2023 jdbc/
drwxr-xr-x 4 root root 16384 3月 14 2023 lib/
-rw-r--r-- 1 root staff 20798 8月 23 2019 LICENSE
-rw-r--r-- 1 root staff 230 8月 23 2019 NOTICE
-rw-r--r-- 1 root staff 2469 8月 23 2019 RELEASE_NOTES.txt
drwxr-xr-x 4 root root 4096 3月 14 2023 scripts/
root@liming-virtual-machine:/opt/software/apache-hive-3.1.2-bin#
配置 hive 的环境变量
我们需要打开 /etc/profile
文件并在文件的末尾追加下面的代码段这会配置好环境变量。
# 开始编辑环境变量
vim /etc/profile
# 下面是环境变量
export JAVA_HOME="/opt/software/jdk1.8.0_202"
export HADOOP_HOME="/opt/software/hadoop-3.2.1"
export HIVE_HOME="/opt/software/apache-hive-3.1.2-bin"
export PATH=${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HIVE_HOME}/bin:$PATH
解决 jar 冲突
# 解决日志冲突
mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak
# 解决 HDFS 操作冲突
rm -rf ${HIVE_HOME}/lib/guava-19.0.jar
cp ${HADOOP_HOME}/share/hadoop/common/lib/guava-2