hiveJdbc ha 链接报错

本文解决了在使用Java执行Hive MR任务时遇到的ZooKeeperHiveClientException异常,并介绍了如何正确配置hive-site.xml以实现HiveServer2的高可用。通过更改hive.server2.thrift.bind.host配置项及设置正确的HA参数,最终实现了稳定运行。

java hive execute org.apache.hadoop.hive.ql.exec.mr.MapRedTask 

安装的是hive2  然后java执行hive 直接select* from table 没有问题 但是带有mr的会包这个错,

然后beeline连接执行查看是版本问题换成

1.2.就ok了



org.apache.hive.jdbc.ZooKeeperHiveClientException: Unable to read HiveServer2 uri from ZooKeeper

该错误调试了好长时间,最后无意中发现 hive-site.xml中的配置项:hive.server2.thrift.bind.host 为0.0.0.0

然后查看zk中写入的也是0.0.0.0:10000

然后重启将该项改为本机Ip重启就OK看了


hive注册zk的ha配置:

http://lxw1234.com/archives/2016/05/675.htm



  1. <property>
  2. <name>hive.server2.support.dynamic.service.discovery</name>
  3. <value>true</value>
  4. </property>
  5.  
  6. <property>
  7. <name>hive.server2.zookeeper.namespace</name>
  8. <value>hiveserver2_zk</value>
  9. </property>
  10.  
  11. <property>
  12. <name>hive.zookeeper.quorum</name>
  13. <value> zkNode1:2181,zkNode2:2181,zkNode3:2181</value>
  14. </property>
  15.  
  16. <property>
  17. <name>hive.zookeeper.client.port</name>
  18. <value>2181</value>
  19. </property>
  20.  
  21.  
  22. <property>
  23. <name>hive.server2.thrift.bind.host</name>
  24. <value>0.0.0.0</value> //改为本机Ip
  25. </property>
  26.  
  27. <property>
  28. <name>hive.server2.thrift.port</name>
  29. <value>10001</value> //两个HiveServer2实例的端口号要一致
  30. </property>


hadoop的core-site.xml
  1. <property>
  2. <name>hadoop.proxyuser.abc.groups</name>
  3. <value>*</value>
  4. </property>
  5.  
  6. <property>
  7. <name>hadoop.proxyuser.abc.hosts</name>
  8. <value>*</value>
  9. </property>

刷新权限

yarn rmadmin -refreshSuperUserGroupsConfiguration

hdfs dfsadmin -refreshSuperUserGroupsConfiguration


beeline连接方式:!connect jdbc:hive2://yun01:2181,yun02:2181,yun03:2181,yun04:2181,yun05:2181/weather_eva_db;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2_zk abc ""



### Hive 报错解决方案 在使用 Hive 时,可能会遇到多种报错情况。以下是针对不同场景的解决方案,结合了提供的引用内容和专业知识。 #### 1. **PyHive 在 Windows 环境下连接 Hive 报错** 当在 Windows 环境中安装 PyHive 并尝试运行 `from pyhive import hive` 时,可能会出现如下错误:`cannot import name 'constants' from 'TCLIService' (unknown location)`[^1]。这种问题通常与依赖库的版本不兼容有关。解决方法包括: - 确保已正确安装 `thrift` 库,并且其版本与 PyHive 兼容。 - 如果问题仍然存在,可以尝试升级或降级 `thrift` 和 `sasl` 库至合适的版本。 ```python pip install thrift==0.13.0 sasl==0.2.1 ``` #### 2. **HDFS 高可用(HA)环境下 Hive 报错** 在 HDFS 开启高可用(HA)之后,如果 Hive 无法正确切换到活跃的 NameNode,则可能出现以下问题:Hive 尝试访问处于 Standby 状态的 NameNode(如 master01),导致元数据读取失败[^2]。为了解决此问题,需要确保以下配置正确: - 修改 Hive 的配置文件 `hive-site.xml`,将 HDFS 地址替换为 HA 的逻辑名称。 - 确保所有客户端使用的 HDFS 地址均为 HA 配置中的逻辑名称,而非具体的 NameNode 地址。 示例配置: ```xml <property> <name>fs.defaultFS</name> <value>hdfs://my-ha-cluster</value> </property> ``` #### 3. **Hive JDBC 连接报错** 当通过 JDBC 连接 Hive 时,可能会因为权限问题导致连接失败。例如,Hadoop 的 `core-site.xml` 文件未正确配置代理用户权限,可能会引发以下错误:`User: root is not allowed to impersonate anonymous`[^3]。为了解决该问题,需要在 `core-site.xml` 中添加以下配置: ```xml <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> ``` 上述配置允许超级用户(如 `root`)从任意主机代理任意用户。完成修改后,需重启 Hadoop 和 Hive 服务以使更改生效。 #### 4. **其他常见 Hive 报错及解决方案** - **Metastore 连接失败**:检查 Hive Metastore 的配置是否正确,确保数据库(如 MySQL)服务正常运行,并验证用户名、密码及连接字符串无误。 - **SerDe 解析错误**:确认表定义中的 SerDe 类与实际数据格式匹配。例如,JSON 数据应使用 `org.openx.data.jsonserde.JsonSerDe`。 - **内存不足**:调整 Hive 的内存参数,如 `hive.exec.reducers.bytes.per.reducer` 和 `hive.exec.reducers.max`,以优化任务执行。 --- ### 示例代码 以下是一个简单的 Hive JDBC 连接示例,供参考: ```java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; public class HiveJdbcExample { public static void main(String[] args) throws Exception { String driverName = "org.apache.hive.jdbc.HiveDriver"; String connectionUrl = "jdbc:hive2://<host>:<port>/<database>"; String query = "SELECT * FROM example_table LIMIT 10"; Class.forName(driverName); try (Connection connection = DriverManager.getConnection(connectionUrl, "username", "password"); Statement statement = connection.createStatement(); ResultSet resultSet = statement.executeQuery(query)) { while (resultSet.next()) { System.out.println(resultSet.getString(1)); } } } } ``` ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值