hive安装

本文详细介绍Hive的安装过程,包括2.3.2版本的下载、环境配置及元数据库初始化,涵盖derby和mysql两种数据库选项。通过具体步骤指导如何避免常见错误,确保Hive正确运行。

hive的安装


    hive的最新版本3.1
    hive2.3.2版本
    下载包:
    http://mirrors.hust.edu.cn/apache/hive/ 

    http://mirrors.shu.edu.cn/apache/hive/ 

    http://mirrors.tuna.tsinghua.edu.cn/apache/hive/ 

如果懒得找,可以去我的百度盘下2.3.2版本的hive

百度云链接: https://pan.baidu.com/s/1MbRM8PyxubQ3wnjW_ZKiaw 密码: 0861
    安装模式:
        只需要任意选择一台hadoop的节点进行安装就可以了
        准备:
            hadoop正常的
            jdk安装好的
        按照元数据库分:
        1)使用自带的元数据库--derby(关系型数据库)
            步骤:
            1)上传
            2)解压
            tar -xvzf apache-hive-2.3.2-bin.tar.gz
            3)配置环境变量
            export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.2-bin
            export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
            
            source /etc/profile
            4)初始化元数据库
             schematool -dbType derby -initSchema
             初始完成标志:
                Initialization script completed
                schemaTool completed
                
                初始化完成,在初始化目录下:
                    derby.log  元数据库日志文件
                    metastore_db:元数据信息
            5)启动  
            必须保证hadoop启动
            hive
            hive> 
            验证:
                show databases;
                报错:hive的元数据报错  元数据库的实例化报错
                FAILED: SemanticException 
                org.apache.hadoop.hive.ql.metadata.HiveException: 
                java.lang.RuntimeException: Unable to 
                instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
            
            安装完成
            
            切换目录:
            报错:
            FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: 
            Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
            原因:启动hive的时候如果使用的是默认的derby的话,默认加载启动目录下的元数据库
            启动目录下没有元数据库  就会报错
            
            重新初始化:
                启动的时候  发现可以正常启动的
            不同目录启动的  加载的是不同目录下的元数据信息  访问的结果是不一样的
            缺陷:
                只适合单用户  不适合多用户

 

2)元数据库使用自己安装的mysql
            步骤:
            1)上传
            2)解压
            tar -xvzf apache-hive-2.3.2-bin.tar.gz
            3)配置环境变量
            export HIVE_HOME=/home/hadoop/apps/apache-hive-2.3.2-bin
            export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin
            让配置生效
            source /etc/profile
            4)安装mysql
                参见文档
            5)修改hive的配置文件
                新建配置文件
                touch hive-site.xml
                修改:
                <configuration>
                <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://localhost:3306/myhive?createDatabaseIfNotExist=true</value>
                <description>JDBC connect string for a JDBC metastore</description>
                <!-- 如果 mysql 和 hive 在同一个服务器节点,那么为 localhost

             注意,该节点名字是你mysql安装所在的节点-->
                </property>


                <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
                <description>添加mysql的驱动</description>
                </property>


                <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
                <description>hive的元数据库mysql的用户名</description>
                </property>


                <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>123456</value>
                <description>hive的元数据库mysql连接的密码</description>
                </property>
                </configuration>
            6)将mysql的驱动包加到hive的lib下
            
            7)初始化元数据库
            schematool -dbType mysql -initSchema
            8)启动hive   保证hadoop启动
            hive
            
            9)测试
            show databases;
            create database test;
            use test;
            create table test01(id int,name string);
            insert into table test01 values(1,'zs');
            select * from test01;

### Hive 安装教程概述 Hive 是一种建立在 Hadoop 上的数据仓库工具,支持结构化数据的查询和分析。以下是基于多种资料整理而成的一份完整的 Hive 安装指南。 --- #### 1. 准备工作 在安装 Hive 之前,需要完成以下准备工作: - **Java 环境配置** Hive 需要 Java 环境的支持。可以通过以下命令安装 JDK 并设置环境变量[^2]: ```bash mkdir -p /opt/module tar -zxvf /tmp/jdk-8u391-linux-x64.tar.gz -C /opt/module/ echo "export JAVA_HOME=/opt/module/jdk1.8.0_391" >> /etc/profile echo 'export PATH=$PATH:$JAVA_HOME/bin' >> /etc/profile source /etc/profile ``` - **Hadoop 环境准备** Hive 查询依赖于 Hadoop 提供的分布式计算能力。因此,在安装 Hive 前需先部署好 Hadoop 集群或单机版环境[^3]。 - **MySQL 数据库配置(可选)** 如果希望将 Hive 的元数据存储到 MySQL 中,则需要提前安装并初始化 MySQL 数据库[^4]。可以参考以下命令进行最小化安装: ```bash sudo apt-get update sudo apt-get install mysql-server service mysql start ``` --- #### 2. Hive 下载与解压 下载最新版本的 Hive 并将其解压至目标目录。例如,对于 Hive 3.1.3 版本,操作如下[^4]: ```bash cd /usr/local sudo wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz sudo tar -zxvf apache-hive-3.1.3-bin.tar.gz sudo mv apache-hive-3.1.3-bin hive ``` --- #### 3. 环境变量配置 为了方便调用 Hive 工具,建议修改系统的环境变量文件 `~/.bashrc` 或 `/etc/profile`,添加以下内容: ```bash export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin source ~/.bashrc ``` --- #### 4. 配置 Hive 参数 进入 Hive 的配置目录 (`$HIVE_HOME/conf`),并将默认模板文件复制为实际使用的配置文件[^5]: ```bash cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml ``` 随后,编辑 `hive-site.xml` 文件以指定必要的参数。例如,定义本地临时目录的位置: ```xml <property> <name>hive.exec.local.scratchdir</name> <value>/path/to/hive/local/scratchdir</value> <description>Local scratch space for Hive jobs</description> </property> ``` 如果使用 MySQL 存储元数据,还需额外配置 JDBC 连接信息。具体示例如下: ```xml <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/metastore?createDatabaseIfNotExist=true&useSSL=false</value> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.cj.jdbc.Driver</value> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>password</value> </property> ``` --- #### 5. 启动 Hive 和验证 完成以上步骤后,即可启动 Hive 并验证其功能。首先确保 Hadoop 集群已正常运行[^3]: ```bash cd /usr/local/hadoop ./sbin/start-dfs.sh ``` 接着尝试启动 Hive CLI 或 Beeline 接口: ```bash cd /usr/local/hive ./bin/hive ``` 或者通过 Beeline 方式连接: ```bash ./bin/beeline -u jdbc:hive2://localhost:10000 ``` --- #### 6. 常见问题排查 在安装过程中可能会遇到一些常见的错误提示。例如,JDBC 驱动缺失时需要手动下载对应的驱动包,并放置到 `$HIVE_HOME/lib` 目录下。 --- ### 结论 按照上述流程,能够顺利完成 Hive安装与基本配置过程。需要注意的是,生产环境中通常还需要进一步优化性能参数以及增强安全性措施。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值