spark一个版本问题引发的血案(java.lang.NoSuchMethodError: org.apache.spark.ui.SparkUI.addStaticHandler)

本文记录了一次因Spark版本不一致导致的java.lang.NoSuchMethodError异常问题,并分享了解决方案。作者发现项目中使用的Spark库版本与配置文件指定的版本不同,通过统一版本成功解决了异常。

先看异常:

Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/jerry/.m2/repository/org/slf4j/slf4j-log4j12/1.7.10/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/local/data0/program/spark-1.6.1-bin-hadoop2.6.4/lib/spark-assembly-1.6.1-hadoop2.6.4.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
16/07/09 19:17:42 INFO SparkContext: Running Spark version 1.3.0
16/07/09 19:17:43 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
16/07/09 19:17:43 INFO SecurityManager: Changing view acls to: jerry
16/07/09 19:17:43 INFO SecurityManager: Changing modify acls to: jerry
16/07/09 19:17:43 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(jerry); users with modify permissions: Set(jerry)
16/07/09 19:17:44 INFO Slf4jLogger: Slf4jLogger started
16/07/09 19:17:44 INFO Remoting: Starting remoting
16/07/09 19:17:44 INFO Remoting: Remoting started; listening on addresses :[akka.tcp://sparkDriver@localhost:4090]
16/07/09 19:17:44 INFO Utils: Successfully started service 'sparkDriver' on port 4090.
16/07/09 19:17:44 INFO SparkEnv: Registering MapOutputTracker
16/07/09 19:17:44 INFO SparkEnv: Registering BlockManagerMaster
16/07/09 19:17:44 INFO DiskBlockManager: Created local directory at /tmp/spark-a250cf38-ad2c-4f20-8cb2-22f33bd7c391/blockmgr-6a6dbba7-a1de-41fc-99d0-bf0856c81fcf
16/07/09 19:17:44 INFO MemoryStore: MemoryStore started with capacity 945.5 MB
16/07/09 19:17:44 INFO HttpFileServer: HTTP File server directory is /tmp/spark-ce6f474b-70a6-4edf-be1f-ab6e904f29c8/httpd-1ef8f1f4-4a16-4f59-b99a-6eeceb9ece31
16/07/09 19:17:44 INFO HttpServer: Starting HTTP Server
16/07/09 19:17:44 INFO Server: jetty-8.y.z-SNAPSHOT
16/07/09 19:17:44 INFO AbstractConnector: Started SocketConnector@0.0.0.0:53269
16/07/09 19:17:44 INFO Utils: Successfully started service 'HTTP file server' on port 53269.
16/07/09 19:17:44 INFO SparkEnv: Registering OutputCommitCoordinator
16/07/09 19:17:44 INFO Server: jetty-8.y.z-SNAPSHOT
16/07/09 19:17:44 INFO AbstractConnector: Started SelectChannelConnector@0.0.0.0:4040
16/07/09 19:17:44 INFO Utils: Successfully started service 'SparkUI' on port 4040.
16/07/09 19:17:44 INFO SparkUI: Started SparkUI at http://debian0:4040
16/07/09 19:17:44 INFO Executor: Starting executor ID <driver> on host localhost
16/07/09 19:17:44 INFO AkkaUtils: Connecting to HeartbeatReceiver: akka.tcp://sparkDriver@localhost:4090/user/HeartbeatReceiver
16/07/09 19:17:45 INFO NettyBlockTransferService: Server created on 46819
16/07/09 19:17:45 INFO BlockManagerMaster: Trying to register BlockManager
16/07/09 19:17:45 INFO BlockManagerMasterActor: Registering block manager localhost:46819 with 945.5 MB RAM, BlockManagerId(<driver>, localhost, 46819)
16/07/09 19:17:45 INFO BlockManagerMaster: Registered BlockManager
Exception in thread "main" java.lang.NoSuchMethodError: org.apache.spark.ui.SparkUI.addStaticHandler(Ljava/lang/String;Ljava/lang/String;)V
	at org.apache.spark.sql.execution.ui.SQLTab.<init>(SQLTab.scala:34)
	at org.apache.spark.sql.SQLContext$$anonfun$createListenerAndUI$1.apply(SQLContext.scala:1369)
	at org.apache.spark.sql.SQLContext$$anonfun$createListenerAndUI$1.apply(SQLContext.scala:1369)
	at scala.Option.foreach(Option.scala:236)
	at org.apache.spark.sql.SQLContext$.createListenerAndUI(SQLContext.scala:1369)
	at org.apache.spark.sql.SQLContext.<init>(SQLContext.scala:77)
	at com.spark.test.sql.SparkSqlJDBC2Mysql$.main(SparkSqlJDBC2Mysql.scala:21)
	at com.spark.test.sql.SparkSqlJDBC2Mysql.main(SparkSqlJDBC2Mysql.scala)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
	at java.lang.reflect.Method.invoke(Method.java:606)
	at com.intellij.rt.execution.application.AppMain.main(AppMain.java:144)

一开始想到的是scala版本的问题,所以就将scala版本由 2.10.6 修改成了 2.10.4,修改完以后,问题依旧。

然后就开始想,这是 spark 方法的问题,所以是spark版本的问题,由于自己导入了spark的lib库是1.6.1的,但是项目的pom文件中还是1.3.0版本的,所以修改成1.6.1以后,问题迎刃而解。

总结:注意版本版本版本的统一,重要的事情说三遍,一般scala遇到 

java.lang.NoSuchMethodError

异常都是版本的问题,切记,切记,切记,重要的事情再说三遍。

<think>嗯,用户这次明确询问解决特定NoSuchMethodError的方法,虽然引用了三篇站内资料,但只有引用[1]直接相关。用户显然在Tomcat升级或依赖冲突的泥潭里挣扎,需要精准的排障指引。 注意到用户引用的错误信息有两个变体:主问的"catalina.util.Base64.encode"和引用[1]的"tomcat.util.codec.binary.Base64.encodeBase64",这很可能是同类问题在不同Tomcat版本的表现。Tomcat 9确实重构了Base64相关API,而用户的环境显然混合了新旧版本的调用。 从引用[3]看用户已经历了典型的"配置检查-百度-求助同事"的排查流程,现在需要更专业的依赖分析方案。重点要解决三点:如何锁定冲突的jar包,如何验证修复是否生效,以及如何预防类似问题。引用[2]提到的dubbo集成失败案例也佐证了第三方库兼容性的重要性。 用户可能没意识到的是,这类问题往往暴露了项目依赖管理的混乱。除了眼前解决方案,其实还需要提醒完善依赖约束机制。不过当前阶段先提供可操作的排障步骤更重要,文档验证和Maven树检查这类实操建议应该放在前面。 有点担忧用户的环境是否还存在其他隐藏的API不兼容问题,毕竟Tomcat 9的包结构调整涉及多个模块。不过既然用户聚焦在Base64错误,就先解决这个靶点问题比较稳妥。 </think>根据引用内容和Tomcat API变更分析,解决 `java.lang.NoSuchMethodError: org.apache.catalina.util.Base64.encode` 错误的方法如下: ### 原因分析 1. **API版本冲突**:Tomcat 9 重构了Base64工具类路径和方法签名,旧版本代码调用已被移除的API[^1] 2. **依赖冲突**:项目依赖的库(如Dubbo等)仍引用旧版Tomcat 8.5的 `catalina.util.Base64` 类 3. **升级不兼容**:升级Tomcat后未同步更新相关依赖库,如引用[2]中Dubbo与Tomcat 9的兼容问题 --- ### 解决方法 #### 第一步:验证Base64调用路径 ```java // Tomcat 8.5 旧路径 (已废弃) org.apache.catalina.util.Base64.encode(bytes); // Tomcat 9+ 新路径 org.apache.tomcat.util.codec.binary.Base64.encodeBase64(bytes); ``` #### 第二步:强制依赖对齐(Maven示例) 在pom.xml中显式声明Tomcat API版本: ```xml <dependency> <groupId>org.apache.tomcat</groupId> <artifactId>tomcat-util</artifactId> <version>9.0.xx</version> <!-- 与实际Tomcat版本一致 --> </dependency> <dependency> <groupId>org.apache.tomcat</groupId> <artifactId>tomcat-catalina</artifactId> <version>9.0.xx</version> </dependency> ``` #### 第三步:排查冲突库 1. 执行依赖树分析: ```bash mvn dependency:tree -Dincludes=*tomcat* ``` 2. 定位引用旧版Tomcat API的库(如Dubbo等),升级其版本至兼容Tomcat 9的版本 #### 第四步:代码级修复(若需修改源码) ```java // 旧代码 (Tomcat 8.5) import org.apache.catalina.util.Base64; byte[] encoded = Base64.encode(inputBytes); // 新代码 (Tomcat 9+) import org.apache.tomcat.util.codec.binary.Base64; byte[] encoded = Base64.encodeBase64(inputBytes); // 注意方法名变更 ``` --- ### 验证措施 1. **启动时检查**:确认日志中无 `NoSuchMethodError` 2. **API调用测试**:编写单元测试验证Base64编码功能 ```java @Test public void testBase64Encode() { byte[] input = "test".getBytes(); byte[] encoded = Base64.encodeBase64(input); // 新API调用 assertNotNull(encoded); } ``` > **关键提示**:若使用Spring Boot,需同步检查内嵌Tomcat版本: > ```xml > <properties> > <tomcat.version>9.0.xx</tomcat.version> > </properties> > ``` --- ### 预防建议 1. **依赖隔离**:对第三方库使用 `<exclusions>` 排除传递的旧Tomcat依赖 2. **兼容性检查**:升级Tomcat前查阅[官方迁移指南](https://tomcat.apache.org/migration-9.html) 3. **持续集成**:在CI流程中加入依赖冲突检测(如maven-enforcer-plugin)
评论 1
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值