hive java.lang.NoSuchMethodError: com.ibm.icu.impl.ICUBinary.getRequiredData

本文详细解析了Hive服务启动时遇到的异常问题,主要原因是由于加载了HBase的lib文件夹中的包导致的字符编码集加载错误。通过分析异常堆栈信息,定位到问题所在,并提供了具体的解决方法,即在启动Hive时使用--skiphbasecp参数来避免加载HBase的类路径。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

环境说明

hadoop-2.7.4
hive-2.3.2
hbase-1.4.2
jdk1.8.0_161

问题现象
原先启动hiveserver2和metastore的两个服务一直运行状况良好,重启这个两个服务后都出现如下异常信息

启动命令示例:hive --service hiveserver2

Exception in thread "main" java.lang.NoSuchMethodError: com.ibm.icu.impl.ICUBinary.getRequiredData(Ljava/lang/String;)Ljava/nio/ByteBuffer;
    at com.ibm.icu.charset.UConverterAlias.haveAliasData(UConverterAlias.java:131)
    at com.ibm.icu.charset.UConverterAlias.getCanonicalName(UConverterAlias.java:525)
    at com.ibm.icu.charset.CharsetProviderICU.getICUCanonicalName(CharsetProviderICU.java:126)
    at com.ibm.icu.charset.CharsetProviderICU.charsetForName(CharsetProviderICU.java:62)
    at java.nio.charset.Charset$2.run(Charset.java:412)
    at java.nio.charset.Charset$2.run(Charset.java:407)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.nio.charset.Charset.lookupViaProviders(Charset.java:406)
    at java.nio.charset.Charset.lookup2(Charset.java:477)
    at java.nio.charset.Charset.lookup(Charset.java:464)
    at java.nio.charset.Charset.forName(Charset.java:528)
    at com.sun.org.apache.xml.internal.serializer.Encodings$EncodingInfos.findCharsetNameFor(Encodings.java:386)
    at com.sun.org.apache.xml.internal.serializer.Encodings$EncodingInfos.findCharsetNameFor(Encodings.java:422)
    at com.sun.org.apache.xml.internal.serializer.Encodings$EncodingInfos.loadEncodingInfo(Encodings.java:450)
    at com.sun.org.apache.xml.internal.serializer.Encodings$EncodingInfos.<init>(Encodings.java:308)
    at com.sun.org.apache.xml.internal.serializer.Encodings$EncodingInfos.<init>(Encodings.java:296)
    at com.sun.org.apache.xml.internal.serializer.Encodings.<clinit>(Encodings.java:564)
    at com.sun.org.apache.xml.internal.serializer.ToStream.<init>(ToStream.java:134)
    at com.sun.org.apache.xml.internal.serializer.ToXMLStream.<init>(ToXMLStream.java:67)
    at com.sun.org.apache.xml.internal.serializer.ToUnknownStream.<init>(ToUnknownStream.java:143)
    at com.sun.org.apache.xalan.internal.xsltc.runtime.output.TransletOutputHandlerFactory.getSerializationHandler(TransletOutputHandlerFactory.java:159)
    at com.sun.org.apache.xalan.internal.xsltc.trax.TransformerImpl.getOutputHandler(TransformerImpl.java:438)
    at com.sun.org.apache.xalan.internal.xsltc.trax.TransformerImpl.transform(TransformerImpl.java:328)
    at org.apache.hadoop.conf.Configuration.writeXml(Configuration.java:2790)
    at org.apache.hadoop.conf.Configuration.writeXml(Configuration.java:2769)
    at org.apache.hadoop.hive.conf.HiveConf.getConfVarInputStream(HiveConf.java:3628)
    at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:4051)
    at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:4003)
    at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:81)
    at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:65)
    at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:702)
    at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:686)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
    at org.apache.hadoop.util.RunJar.main(RunJar.java:136)

定位过程:
1.根据异常堆栈的信息,初步判断是在java进程启动时加载字符编码集时找不到具体lib中的类方法;
2.CharsetProviderICU这个编码集提供方不是jdk自带的(在jdk的lib中搜了下没找到),于是查看jdk的源码查看这个类的加载过程
Charset.java:340

 ClassLoader cl = ClassLoader.getSystemClassLoader();
 ServiceLoader<CharsetProvider> sl = ServiceLoader.load(CharsetProvider.class, cl);
 Iterator<CharsetProvider> i = sl.iterator();

ServiceLoader中的load过程核心代码摘录如下

try {
    String fullName = PREFIX + service.getName();
    if (loader == null)
        configs = ClassLoader.getSystemResources(fullName);
    else
        configs = loader.getResources(fullName);
} catch (IOException x) {
     fail(service, "Error locating configuration files", x);
}

其中PREFIX定义为

private static final String PREFIX = "META-INF/services/";

所以可以想到CharsetProviderICU加载的描述应该是定义在某个jar下面的META-INF/services/xxxx的描述中,但是我在hive的lib下并没有查找到CharsetProviderICU这个类的存在;
3.于是再到hbase的lib文件下去查找CharsetProviderICU看是否存在,显示在phoenix-4.14.0-HBase-1.4-client.jar中存在,如果在hive的classpath中确实加载了phoenix-4.14.0-HBase-1.4-client.jar,那就可以理解报错的原因,由于phoenix引入后hive的服务一直没有重启,所以没有报错;
4.现在亟待解决的问题的在启动hive的时候为什么会去加载hbase lib文件夹的包,查看hive的启动脚本(bin/hive这个文件),有如下一段描述

if [ "$SKIP_HBASECP" = false ]; then
  # HBase detection. Need bin/hbase and a conf dir for building classpath entries.
  # Start with BigTop defaults for HBASE_HOME and HBASE_CONF_DIR.
  HBASE_HOME=${HBASE_HOME:-"/usr/lib/hbase"}
  HBASE_CONF_DIR=${HBASE_CONF_DIR:-"/etc/hbase/conf"}
  if [[ ! -d $HBASE_CONF_DIR ]] ; then
    # not explicitly set, nor in BigTop location. Try looking in HBASE_HOME.
    HBASE_CONF_DIR="$HBASE_HOME/conf"
  fi
 
  # perhaps we've located the HBase config. if so, include it on classpath.
  if [[ -d $HBASE_CONF_DIR ]] ; then
    export HADOOP_CLASSPATH="${HADOOP_CLASSPATH}:${HBASE_CONF_DIR}"
  fi
 
  # look for the hbase script. First check HBASE_HOME and then ask PATH.
  if [[ -e $HBASE_HOME/bin/hbase ]] ; then
    HBASE_BIN="$HBASE_HOME/bin/hbase"
  fi
  HBASE_BIN=${HBASE_BIN:-"$(which hbase)"}
 
  # perhaps we've located HBase. If so, include its details on the classpath
  if [[ -n $HBASE_BIN ]] ; then
    # exclude ZK, PB, and Guava (See HIVE-2055)
    # depends on HBASE-8438 (hbase-0.94.14+, hbase-0.96.1+) for `hbase mapredcp` command
    for x in $($HBASE_BIN mapredcp 2>> ${STDERR} | tr ':' '\n') ; do
      if [[ $x == *zookeeper* || $x == *protobuf-java* || $x == *guava* ]] ; then
        continue
      fi
      # TODO: should these should be added to AUX_PARAM as well?
      export HADOOP_CLASSPATH="${HADOOP_CLASSPATH}:${x}"
    done
  fi
fi

关键的语句是 hbase mapredcp 2>> ${STDERR} | tr ':' '\n'列出了与hbase运行时所需的各种jar包,并在下面加载进了hive运行时所需的classpath中,所以这就解释了hive运行时为什么会加载hbase的lib

解决方法:
按照hive启动脚本中的命令参数--skiphbasecp,如果设置为true则不会记载到classpath路径中,所以启动命令修改为

nohup hive --skiphbasecp --service hiveserver2 2>&1 >> /opt/hive-server2.log &
nohup hive --skiphbasecp --service metastore

启动完成后,测试hive,hive on hbase(实际生产使用时个人不推荐使用这种方式)以及hbase自身的功能都正常。



作者:soycici
链接:https://www.jianshu.com/p/5ec5a509b5a8
來源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

### Hive 中 `java.lang.NoSuchMethodError` 错误解决方案 当遇到 `java.lang.NoSuchMethodError: org.eclipse.jetty.server.Server.setThreadPool(Lorg/eclipse/jetty/util/thread/ThreadPool;)V` 这类错误时,通常是因为不同版本的 Jetty 库之间存在方法签名差异所引起的依赖冲突。 #### 1. 检查并清理 jar 文件 确认是否存在多个版本的 Jetty 或其他第三方库共存于 classpath 下。特别是要留意是否有重复引入了独立版 (standalone) 的 Hive JDBC 驱动程序文件[^5]。建议移除不必要的 jar 包以减少潜在冲突源。 #### 2. 统一依赖管理工具配置 如果是在 Maven 项目环境下工作,则需仔细审查项目的 pom.xml 文件,确保所有组件及其子模块都指向相同的大版本号范围内的 Jetty 和 Guava 等常用库[^4]。对于 Spring Boot 用户来说,应该让框架自动处理大部分依赖关系而不是手动指定具体版本号。 ```xml <dependencyManagement> <dependencies> <!-- 使用 spring-boot-starter-parent 来统一管理基础依赖 --> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-dependency-management</artifactId> <version>${spring-boot.version}</version> <scope>import</scope> <type>pom</type> </dependency> <!-- 显式声明所需 jetty 版本 --> <dependency> <groupId>org.eclipse.jetty</groupId> <artifactId>jetty-server</artifactId> <version>${jetty.version}</version> </dependency> ... </dependencies> </dependencyManagement> ``` #### 3. 更新至最新稳定版本 考虑升级到更高版本的 Hadoop/Hive 发行版,在这些新版本中可能已经修复了一些旧版本中存在的兼容性问题[^1]。同时也要注意配套使用的客户端 SDK 是否也需要同步更新。 #### 4. 调整 JVM 参数 有时适当调整 Java 虚拟机参数也可以帮助解决问题,比如通过设置 `-verbose:class` 开关来查看实际加载了哪些类以及来自哪个路径下的 jar 包;还可以尝试使用 `-Djavax.net.debug=ssl,handshake,failure` 增加网络调试信息以便更好地定位问题所在[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值