hive客户端升级及添加hadoop超级权限

本文档详细介绍了如何升级Hive客户端到0.14.0版本,包括停止服务、备份MySQL数据库、执行升级脚本、迁移配置文件和解决升级后遇到的数据插入问题。此外,还阐述了如何添加Hadoop超级权限,通过创建自定义的hive-authhook.jar,并在hive-site.xml中配置授权规则,实现对用户权限的精细控制。

 文章来自:http://blog.youkuaiyun.com/lili72

背景: 旧版本的hive 在用的过程中,经常出现一些bug,无法解决,比如无法找到表们无法找到分区等。由于并发比较大,常见如下异常:

com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Table 'hive.DELETEME1414791576856' doesn't exist

FAILED: SemanticException [Error 10006]: Line 1:48 Partition not found ''2014-10-26''

FAILED: SemanticException Line 1:99 Exception while processing 'ST_USER_INFO': Unable to fetch table ST_USER_INFO 

FAILED: Error in metadata: MetaException(message:java.lang.RuntimeException: commitTransaction was called but openTransactionCalls = 0. This probably indicates that there are unbalanced calls to openTransaction/commitTransaction)

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask

(增大hivemysql的最大连接数,还是效果不明显。SHOW VARIABLES LIKE 'max_conn%';SET GLOBAL max_connections=2000;

 

hive  升级

0  下载最新 hive-0.14.0 

http://apache.fayea.com/hive/hive-0.14.0/

上传到/home/bigdata/

解压文件 tar -xvf  apache-hive-0.14.0-bin.tar.gz

重命名  mv  apache-hive-0.14.0-bin hive0140

 

 

1  先停止所有对hive的操作,hiveserver 和客户端关闭

  

2  mysql数据库 进行备份

 

mysqldump -h 192.168.119.129 -P 3306 -uroot -p123 hive >hive-20150120-0.9.0.sql

 

3  修改环境变量

 修改环境变量$HIVE_HOME

  切换root 

  vi  /etc/profile

  source /etc/profile

 #export HIVE_HOME=/home/bigdata/hive

 export HIVE_HOME=/home/bigdata/hive0140

  4 执行升级mysql脚本

   cd &

Hive是一个基于Hadoop的数据仓库工具,它提供了一种SQL-like查询语言HQL(Hive Query Language),用于处理大规模数据集。以下是HiveHadoop 2.7环境下安装和配置的基本步骤: **安装前的准备:** 1. 安装Java Development Kit (JDK) 和 Hadoop 2.x版本,包括HDFS和MapReduce。 **安装Hive:** 1. **下载Hive**: 可从Apache官网下载Hive的tar.gz包,比如`hive-2.3.4-bin.tar.gz`。 2. **解压文件**:在合适的目录下解压缩并进入目录,如`cd /usr/local/hive` 3. **配置环境变量**:编辑`conf/hive-env.sh`添加Hadoop的路径,例如: ```bash export HADOOP_HOME=/path/to/hadoop ``` 4. **配置核心-site.xml**: 根据Hadoop配置文件修改`conf/core-site.xml`,指定HDFS的名称节点地址。 5. **配置hdfs-site.xml**: 配置Hive对HDFS的访问,例如添加`fs.defaultFS`指向HDFS地址。 6. **创建元数据库目录**:在HDFS上创建`/user/hive/warehouse`目录(如果不存在)。 7. **启动Hive服务**:运行`beeline`命令启动Hive交互式shell,检查是否可以连接到Hive Metastore服务。 **配置Metastore(存储库服务)**: 1. **启动Hive Metastore**:通常作为Hadoop的一个守护进程运行,你可以通过Hadoop的`start-all.sh`或`sbin/start-hiveserver2.sh`来启动。 2. **配置Metastore的主机和端口**:在`conf/metastore-site.xml`里设置`<property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExists=true</value></property>`,替换为实际数据库地址。 3. **创建Metastore用户**:在Hive支持的数据库(通常是MySQL)中创建Metastore用户,并赋予适当权限。 **测试安装**: - 使用`beeline`或`hive`客户端连接到Hive服务器,尝试执行简单的HQL查询来验证安装。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值