Hive安装

本文详细介绍Hive从下载到配置全过程,包括环境变量设置、hive-site.xml与hive-env.sh配置,以及Mysql数据库初始化与测试步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、下载解压

http://archive.cloudera.com/cdh5/cdh/5/
这里以hive-1.1.0-cdh5.16.1版本为例,hive对应hadoop版本请参考hive官网,需注意版本不兼容的问题

tar -xvf hive-1.1.0-cdh5.16.1.tar.gz

2、配置

2.1、配置环境变量

vi ~/.bash_profile

添加如下内容

export HIVE_HOME=/opt/modules/hive-1.1.0-cdh5.16.1
export PATH=$PATH:$HIVE_HOME/bin

保存退出,执行source命令,将环境变量生效

source ~/.bash_profile

查看是否配置成功

hive --version

出现以下结果,表明环境配置成功

Hive 1.1.0-cdh5.16.1
Subversion file:///data/jenkins/workspace/generic-binary-tarball-and-maven-deploy/CDH5.16.1-Packaging-Hive-2017-11-09_08-08-07/hive-1.1.0-cdh5.16.1 -r Unknown
Compiled by jenkins on Thu Nov 9 08:20:30 PST 2017
From source with checksum a07ce805880f1ad3d4f92b623df89745

2.2、配置hive-site.xml

创建存放hive临时文件目录 (本地目录)

mkdir -p /data/hive/tmp

进入${HIVE_HOME}/conf目录

cp hive-default.xml.template hive-site.xml
vim hive-site.xml

将原来的值修改为相应的mysql对应信息

	<!--mysql连接地址-->
   <property>
        <name>javax.jdo.option.ConnectionURL</name>mysql
        <value>jdbc:mysql://192.168.11.203:3306/hive?useSSL=false</value>
    </property>
    <!--驱动程序-->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <!--用户名-->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>hive</value>
    </property>
    <!--密码-->
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>hive</value>
    </property>    

2.3、配置hive-env.sh

 cp hive-env.sh.template hive-env.sh

修改下面两个配置

HADOOP_HOME=/opt/modules/hadoop-2.6.0-cdh5.16.1
export HIVE_CONF_DIR=/opt/modules/hive-1.1.0-cdh5.16.1/conf

2.4 复制Jar包

复制mysql驱动Jar包至${HIVE_HOME}/lib目录
查看是否复制成功

cd /opt/modules/hive-1.1.0-cdh5.16.1/lib
ll mysql-connector-java-5.1.40-bin.jar

3、验证

查看配置是否正常

hive

如果出现下面异常

Exception in thread "main" java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
	at org.apache.hadoop.fs.Path.initialize(Path.java:206)
	at org.apache.hadoop.fs.Path.<init>(Path.java:172)
	at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:659)
	at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:582)
	at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:549)
	at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:750)
	at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:498)
	at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
	at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D
	at java.net.URI.checkPath(URI.java:1823)
	at java.net.URI.<init>(URI.java:745)
	at org.apache.hadoop.fs.Path.initialize(Path.java:203)
	... 12 more

解决方案:

mkdir -p /data/hive/tmp

将配置文件hive-site.xml里面包含:
${system:java.io.tmpdir} 全部替换为 /data/hive/tmp
{system:user.name} 全部替换为 {user.name}

再次执行查看是否正常

hive

在这里插入图片描述
进入hive,表明安装成功

4、初始化Mysql

进入配置连接的mysql,新建数据库hive

5、初始化hive

执行下面命令初始化数据库

schematool -dbType mysql -initSchema

完成后打开hive数据库,会发现多了很多表
在这里插入图片描述

6、测试

启动meta-metastore

hive --service metastore &

启动hive客户端

hive
hive> create database hive_1;
OK
Time taken: 2.192 seconds
hive> show databases;

HDFS下的情况:
在这里插入图片描述
mysql下的情况:
在这里插入图片描述
在hive_1下面新建一张表

hive> show databases;
OK
default
hive_1
Time taken: 0.31 seconds, Fetched: 2 row(s)
hive> use hive_1;
OK
Time taken: 0.024 seconds
hive> create table hive_01 (id int,name string);
OK
Time taken: 1.665 seconds
hive> show tables;
OK
hive_01
Time taken: 0.085 seconds, Fetched: 1 row(s)

HDFS下的情况:
在这里插入图片描述
Mysql下的情况:
在这里插入图片描述

### Hive 安装教程概述 Hive 是一种建立在 Hadoop 上的数据仓库工具,支持结构化数据的查询分析。以下是基于多种资料整理而成的一份完整的 Hive 安装指南。 --- #### 1. 准备工作 在安装 Hive 之前,需要完成以下准备工作: - **Java 环境配置** Hive 需要 Java 环境的支持。可以通过以下命令安装 JDK 并设置环境变量[^2]: ```bash mkdir -p /opt/module tar -zxvf /tmp/jdk-8u391-linux-x64.tar.gz -C /opt/module/ echo "export JAVA_HOME=/opt/module/jdk1.8.0_391" >> /etc/profile echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile source /etc/profile ``` - **Hadoop 环境准备** Hive 查询依赖于 Hadoop 提供的分布式计算能力。因此,在安装 Hive 前需先部署好 Hadoop 集群或单机版环境[^3]。 - **MySQL 数据库配置(可选)** 如果希望将 Hive 的元数据存储到 MySQL 中,则需要提前安装并初始化 MySQL 数据库[^4]。可以参考以下命令进行最小化安装: ```bash sudo apt-get update sudo apt-get install mysql-server service mysql start ``` --- #### 2. Hive 下载与解压 下载最新版本Hive 并将其解压至目标目录。例如,对于 Hive 3.1.3 版本,操作如下[^4]: ```bash cd /usr/local sudo wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz sudo tar -zxvf apache-hive-3.1.3-bin.tar.gz sudo mv apache-hive-3.1.3-bin hive ``` --- #### 3. 环境变量配置 为了方便调用 Hive 工具,建议修改系统的环境变量文件 `~/.bashrc` 或 `/etc/profile`,添加以下内容: ```bash export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin source ~/.bashrc ``` --- #### 4. 配置 Hive 参数 进入 Hive 的配置目录 (`$HIVE_HOME/conf`),并将默认模板文件复制为实际使用的配置文件[^5]: ```bash cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml ``` 随后,编辑 `hive-site.xml` 文件以指定必要的参数。例如,定义本地临时目录的位置: ```xml <property> <name>hive.exec.local.scratchdir</name> <value>/path/to/hive/local/scratchdir</value> <description>Local scratch space for Hive jobs</description> </property> ``` 如果使用 MySQL 存储元数据,还需额外配置 JDBC 连接信息。具体示例如下: ```xml <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true&useSSL=false</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> ``` --- #### 5. 启动 Hive 验证 完成以上步骤后,即可启动 Hive 并验证其功能。首先确保 Hadoop 集群已正常运行[^3]: ```bash cd /usr/local/hadoop ./sbin/start-dfs.sh ``` 接着尝试启动 Hive CLI 或 Beeline 接口: ```bash cd /usr/local/hive ./bin/hive ``` 或者通过 Beeline 方式连接: ```bash ./bin/beeline -u jdbc:hive2://localhost:10000 ``` --- #### 6. 常见问题排查 在安装过程中可能会遇到一些常见的错误提示。例如,JDBC 驱动缺失时需要手动下载对应的驱动包,并放置到 `$HIVE_HOME/lib` 目录下。 --- ### 结论 按照上述流程,能够顺利完成 Hive安装与基本配置过程。需要注意的是,生产环境中通常还需要进一步优化性能参数以及增强安全性措施。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值