Hive 安装及配置

Hive是一个构建在Hadoop上的数据仓库框架。它把用户编写的类SQL语句转化为一系列在Hadoop集群上运行的MapReduce作业。它把数据组织成表,通知这种方式为存储在HDFS的数据赋予结构。

1、   首先下载 hive-0.10.0-bin.tar.gz  网址:http://hive.apache.org/releases.html
2、   放到/usr 目录下
3、   安装hadoop
4、    解压

[root@freepp ~]# cd /usr

[root@freepp ~]# tar zxf hive-0.10.0-bin.tar.gz
[root@freepp ~]# mv hive-0.10.0 hive


5、    在环境变量中配置Hive的路径


修改/etc/profile配置文件,在末尾追加以下内容并保存: 


export HIVE_HOME=/usr/hive

export HIVE_CONF_DIR=$HIVE_HOME/conf

export HIVE_LIB=$HIVE_HOME/lib

export CLASSPATH=$CLASSPATH:$HIVE_LIB

export PATH=$PATH:$HIVE_HOME/bin

 

并输入

[root@freepp ~]# source /etc/profile

使之生效。



6、  Hive默认是采用Derby来存储其Meta信息的, 现在我们需要修改为mysql: 


a)      在mysql专门为hive添加用户


mysql> CREATE USER 'hadoop'@'%' IDENTIFIED BY 'hadoop';


mysql> GRANT ALL PRIVILEGES ON *.* TO 'hadoop'@'%' WITH GRANT OPTION; 



b)     修改配置文件$HIVE_HOME/conf/hive-default.xml 中的配置


$cd /usr/hive/conf
$sudo cp hive-default.xml.template hive-default.xml
$sudo cp hive-env.sh.template hive-env.sh
$sudo cp hive-exec-log4j.properties.template hive-exec-log4j.properties
$sudo cp hive-log4j.properties.template hive-log4j.properties
$sudo gedit hive-env.sh


找到#HADOOP_HOME=,去掉#,添加hadoop安装路径


c)      添加jdbc的jar包 


wget http://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.11.tar.gz/from/http://mysql.he.net/

tar -xvzf mysql-connector-java-5.1.11.tar.gz

cp mysql-connector-java-5.1.11/*.jar /data/soft/hive/lib




d)     启动hive 


#bin/hive

hive> show tables;

OK

Time taken: ooxx seconds

### Hive 安装教程及环境变量配置指南 #### 一、Hive安装步骤 为了成功安装 Hive,需按照以下流程操作: 1. **准备 MySQL 数据库作为元存储** 在实际应用中,通常会使用外部数据库(如 MySQL)来保存 Hive 的元数据。以下是具体的操作过程: - 启动 MySQL 服务并进入 MySQL 命令行工具:`service mysql start && mysql -u root -p`[^4]。 - 创建一个新的数据库用于存储 Hive 的元数据:`create database hive;`。 - 授权给特定用户访问此数据库:`grant all on *.* to hive@localhost identified by 'hive'; flush privileges; exit;`。 2. **下载并解压 Hive 软件包** 下载 Apache Hive 并将其解压缩到指定路径下,例如 `/export/servers/` 文件夹中。假设版本为 `apache-hive-3.1.3-bin.tar.gz`,可以执行如下命令进行解压: ```bash tar zxvf apache-hive-3.1.3-bin.tar.gz -C /export/servers/ ``` 3. **初始化 Hive 元数据表结构** 进入 Hive 解压后的根目录,并运行 SchemaTool 工具以升级元数据表结构至最新状态: ```bash cd /export/servers/apache-hive-3.1.3-bin ./bin/schematool -initSchema -dbType mysql ``` --- #### 二、Hive 环境变量配置方法 为了让系统能够识别 Hive 及其相关组件的位置,需要设置必要的环境变量。以下是具体的配置方式: 1. 编辑全局环境变量文件 `/etc/profile` 或用户的 `.bashrc` 文件,添加以下内容: ```bash export HIVE_HOME=/export/servers/apache-hive-3.1.3-bin export HIVE_CONF_DIR=$HIVE_HOME/conf export PATH=$PATH:$HIVE_HOME/bin ```[^2] 2. 让更改生效: 执行以下命令使新配置立即可用: ```bash source /etc/profile ``` 3. 如果发现 `conf` 目录下缺少默认的 `hive-site.xml` 文件,则可以通过手动创建的方式解决: 输入以下指令新建并编辑该文件:`vi $HIVE_HOME/conf/hive-site.xml`[^3]。随后根据需求填写相应的配置项,比如连接 MySQL 的 JDBC URL 和认证信息等。 --- #### 三、验证安装是否成功 完成上述所有步骤之后,可通过尝试启动 Hive CLI 来检验整个部署情况: ```bash hive ``` 如果没有任何错误提示且进入了交互式的 SQL 提示符界面,则说明安装顺利完成。 --- ### 示例代码片段 下面展示一段简单的 Python 脚本用来测试与 Hive 表的数据读取功能: ```python from pyhive import hive conn = hive.Connection(host='localhost', port=10000, username='root') cursor = conn.cursor() cursor.execute('SELECT * FROM test_table LIMIT 10') for result in cursor.fetchall(): print(result) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值