beeline连接Hive

Hive Beeline使用及权限配置与服务启停
本文介绍了HiveServer2的命令行工具Beeline,其有本地嵌入和远程两种工作模式。还阐述了Beeline使用JDBC连接HiveServer2时权限异常的解决办法,需修改Hadoop系统配置文件。同时详细说明了Hadoop、Spark、Hive服务进程的停止和启动操作,并进行了Beeline测试。

HiveServer2提供了一个新的命令行工具Beeline,它基于SQLLine CLI的JDBC客户端。
Beeline工作模式有两种,即本地嵌入模式和远程模式。嵌入模式下,它返回一个嵌入式的Hive(类似于Hive CLI);而远程模式则是通过Thrift协议与某个单独的HiveServer2进程进程连接通信。


权限设置
Beeline使用JDBC连接到HiveServer2时,如果显示User: root is not allowed to impersonate hive,是因为远程访问Hadoop授权异常导致的,则需要修改Hadoop系统的配置文件core-site.xml,添加如下属性
<property>
  <name>hadoop.proxyuser.root.hosts</name>
  <value>*</value>
</property>
<property>
  <name>hadoop.proxyuser.root.groups</name>
  <value>*</value>
</property>

注意:这里登陆的是root用户。若登录的是hadoop用户,则配置文件中的root需要修改为hadoop

当上述文件配置不正确时会可能会引起beeline连接Hive时报如下异常

 User: hadoop is not allowed to impersonate root), serverProtocolVersion:null) (state=08S01,code=0)

先部署安装使用的是hadoop用户,故而需要修改core-site.xml配置文件

修改完毕之后重启hadoop服务进程和Hive服务进程
$/opt/soft/hadoop/sbin/stop-all.sh
[hadoop@master ~]$ stop-all.sh
This script is Deprecated. Instead use stop-dfs.sh and stop-yarn.sh
Stopping namenodes on [master]
master: stopping namenode
slave2: stopping datanode
master: stopping datanode
slave1: stopping datanode
Stopping secondary namenodes [slave1]
slave1: stopping secondarynamenode
stopping yarn daemons
stopping resourcemanager
slave2: stopping nodemanager
master: stopping nodemanager
slave1: stopping nodemanager
slave2: nodemanager did not stop gracefully after 5 seconds: killing with kill -9
master: nodemanager did not stop gracefully after 5 seconds: killing with kill -9
slave1: nodemanager did not stop gracefully after 5 seconds: killing with kill -9
no proxyserver to stop
[hadoop@master ~]$
杀掉Hive服务进程
[root@slave1 ~]# jps -l -m
6432 org.apache.hadoop.yarn.server.nodemanager.NodeManager
24033 org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://master:7077
6228 org.apache.hadoop.hdfs.server.datanode.DataNode
2407 org.apache.hive.beeline.BeeLine -u jdbc:hive2://localhost:10000/default -n hadoop
12250 org.apache.hadoop.util.RunJar /opt/soft/hive-2.3.8/lib/hive-metastore-2.3.8.jar org.apache.hadoop.hive.metastore.HiveMetaStore
11018 org.apache.hadoop.util.RunJar /opt/soft/hive-2.3.8/lib/hive-service-2.3.8.jar org.apache.hive.service.server.HiveServer2
17165 sun.tools.jps.Jps -l -m
6302 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
[root@slave1 ~]# kill -9 12250
[root@slave1 ~]# kill -9 11018
关闭spark服务进程
 $/opt/soft/spark/sbin/stop-all.sh
[hadoop@master ~]$ /opt/soft/spark/sbin/stop-all.sh
slave2: st

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值