centos7安装Hive2.3.0

本文详细介绍了Hive2.3.0的安装与配置步骤,包括下载、解压、配置环境变量、安装MySQL数据库、创建metastore数据库、配置hive-site.xml等关键环节,并提供了解决常见问题的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、下载Hive2.3.0


wget http://mirror.bit.edu.cn/apache/hive/hive-2.3.0/apache-hive-2.3.0-bin.tar.gz

2、解压到指定安装目录


tar -zxvf apache-hive-2.3.0-bin.tar.gz
mv apache-hive-2.3.0-bin /usr/local/hive
cd /usr/local/hive

3、配置/etc/profile,在/etc/profile中添加如下语句


export HIVE_HOME=/usr/local/hive
export PATH=$HIVE_HOME/bin:$PATH

使之生效

source /etc/profile 

4、安装MySQL数据库


参考 centos7下安装mysql(yum)


5、创建metastore数据库并为其授权


create database metastore;
grant all on metastore.* to hive@'%'  identified by 'hive';
grant all on metastore.* to hive@'localhost'  identified by 'hive';
flush privileges;

6、 下载jdbc connector


下载地址Connector/J 5.1.43

这里写图片描述

下载完成之后将其拷贝至$HIVE_HOME/lib目录下

mv mysql-connector-java-5.1.43.tar.gz $HIVE_HOME/lib

7、修改hive配置文件


cd /usr/local/hive/conf

7.1复制初始化文件并重改名

cp hive-env.sh.template hive-env.sh
cp hive-default.xml.template hive-site.xml
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties

7.2修改hive-env.sh

export JAVA_HOME=/usr/local/jdk1.7.0_80    ##Java路径
export HADOOP_HOME=/usr/local/hadoop   ##Hadoop安装路径
export HIVE_HOME=/usr/local/hive    ##Hive安装路径
export HIVE_CONF_DIR=/usr/local/hive/conf    ##Hive配置文件路径

7.3在hdfs 中创建下面的目录 ,并且授权

hdfs dfs -mkdir -p /user/hive/warehouse
hdfs dfs -mkdir -p /user/hive/tmp
hdfs dfs -mkdir -p /user/hive/log
hdfs dfs -chmod -R 777 /user/hive/warehouse
hdfs dfs -chmod -R 777 /user/hive/tmp
hdfs dfs -chmod -R 777 /user/hive/log

7.4修改hive-site.xml

<property>
    <name>hive.exec.scratchdir</name>
    <value>/user/hive/tmp</value>
</property>
<property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/user/hive/warehouse</value>
</property>
<property>
    <name>hive.querylog.location</name>
    <value>/user/hive/log</value>
</property>

## 配置 MySQL 数据库连接信息
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true&amp;characterEncoding=UTF-8&amp;useSSL=false</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
  </property>

7.5 创建tmp文件

 mkdir /home/hadoop/hive-2.1.1/tmp

并在hive-site.xml中修改:

把{system:java.io.tmpdir} 改成 /home/hadoop/hive-2.1.1/tmp/

把 {system:user.name} 改成 {user.name}

8、初始化hive


schematool -dbType mysql -initSchema hive hive

9、启动hive


下面介绍有两种启动方式:
9.1 hive CLI

hive

9.2 beeline

9.2.1 启动hiveserver2

nohup hiveserver2 &

9.2.2 查看hiveserver2启动状态

netstat -nptl | grep 10000

这里写图片描述

9.2.3 启动beeline

beeline

这里写图片描述

9.2.4连接hive

!connect jdbc:hive2://localhost:10000 hive hive

这里写图片描述

9.2.5 查看数据库

show databases;

这里写图片描述


10、安装时遇到的问题


10.1 在对数据库表进行查询、插入操作时出现下列异常:

 Exception: java.lang.OutOfMemoryError thrown from the UncaughtExceptionHandler in thread "main"

原因:客户端内存不够。
解决方法:适当增加内存
在hadoop-env.sh中修改属性HADOOP_CLIENT_OPTS的值,默认值为1024MB,可以根据实际内存大小对其进行修改,我的内存为8G,所以我将其修改为4096MB

export HADOOP_HEAPSIZE=4096

10.2Error: Could not open client transport with JDBC Uri: jdbc:hive2://localhost:10000: java.net.ConnectException: Connection refused (state=08S01,code=0)

这里写图片描述

原因:hiveserver2没有启动
解决方案:启动hiveserver2

nohup hiveserver2 &
### 在 CentOS 7安装 Hive 的指南 #### 准备工作 在开始之前,确保已经准备好以下环境: - 已经安装并配置好 Java JDK 和 Hadoop。 - 下载 Apache Hive 安装包。 可以通过以下链接下载最新版本的 Hive: ```bash wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz ``` #### 解压 Hive 并设置安装目录 将下载好的 Hive 压缩包解压至目标路径,并创建软链以便于管理[^1]。 ```bash tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /usr/local/ ln -s /usr/local/apache-hive-3.1.3-bin/ /usr/local/hive ``` #### 配置 Hive 环境变量 编辑 `~/.bashrc` 文件,添加 Hive 路径到系统的 PATH 变量中。 ```bash export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin ``` 使更改生效: ```bash source ~/.bashrc ``` #### 修改 Hive 配置文件 进入 Hive 的配置目录 `/usr/local/hive/conf`,复制模板文件并进行必要的修改: ##### 编辑 `hive-env.sh` 通过复制模板文件来生成实际使用的配置文件,并指定 Hadoop 的安装路径[^2]。 ```bash cp hive-env.sh.template hive-env.sh vim hive-env.sh ``` 在该文件中加入如下内容: ```bash export HADOOP_HOME=/path/to/your/hadoop/installation export JAVA_HOME=/path/to/your/java/installation ``` ##### 创建 `hive-site.xml` 同样从模板文件生成新的配置文件: ```bash cp hive-default.xml.template hive-site.xml vim hive-site.xml ``` 在此文件中定义一些关键参数,例如元数据存储方式以及默认数据库引擎等。以下是常见的配置项示例[^2]: ```xml <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> </configuration> ``` 注意:如果使用 MySQL 存储 Hive 元数据,则需提前完成 MySQL 的安装与初始化操作[^4]。 #### 启动 Hive 验证所有前置条件均已满足之后尝试运行 Hive CLI 或 Beeline 来测试其功能正常与否。若遇到诸如 "拒绝连接" 错误提示,请确认 Hadoop 集群已成功启动[^4]。 ---
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值