Flink on yarn-session启动出错 Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.yarn.except

在尝试启动FlinkonYARN-session模式时遇到了由于ClassNotFoundException:org.apache.hadoop.yarn.exceptions.YarnException引起的错误。这个问题可以通过添加HADOOP_CLASSPATH环境变量来解决,例如:`exportHADOOP_CLASSPATH=hadoopclasspath`。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Flink on yarn-session启动出错 Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.yarn.exceptions.YarnException org.apache.hadoop.conf.Configuration
flink启动yarn session模式时遇到如下报错:

![img](https://img-mid.csdnimg.cn/release/static/image/mid/ask/617479366986184.png "#left")
可以在环境变量中添加:

```
export HADOOP_CLASSPATH=`hadoop classpath`
```

### 解析 `java.lang.ClassNotFoundException` 错误 当遇到 `java.lang.ClassNotFoundException: org.apache.flink.cdc.runtime.typeutils.EventTypeInfo` 这样的错误时,表明 Java 虚拟机无法找到指定的类文件。此类问题通常由以下几个因素引发: - 类路径配置不正确或缺失必要的 JAR 文件[^1]。 - Maven 或 Gradle 构建工具未能正确下载依赖项[^2]。 针对此特定案例中的 Flink CDC (Change Data Capture) 组件,可能是因为缺少了包含 `EventTypeInfo` 的库文件。为了确认这一点,可以检查项目的构建配置文件(如 pom.xml 对于 Maven 项目),确保已声明并引入了正确的依赖版本。 对于 Apache Flink 应用程序而言,如果使用的是 CDC 功能,则应考虑加入官方推荐的相关依赖来解决问题。例如,在 Maven 中可以通过添加如下依赖片段尝试修复该异常: ```xml <dependency> <groupId>com.ververica</groupId> <artifactId>flink-cdc-connectors</artifactId> <version>${cdc.version}</version> </dependency> ``` 此外,还需注意不同版本间的兼容性问题;有时升级至最新版框架并不能立即解决旧有代码中存在的潜在冲突。因此建议查阅所使用的具体 Flink 版本文档以获取最合适的依赖坐标。 最后,清理本地仓库缓存以及执行完整的构建过程有助于排除因环境脏污而导致的问题。通过命令行运行 `mvn clean install -U` 可强制更新所有过期的快照依赖,并重建整个项目结构。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值