大数据初学者问题汇总之yarn-ui上Tracking URL打开报错500,且Log Aggregation Status NOT_START

今天工作上处理了一个现网问题

有一个大数据环境的yarn ui上的一个flink任务的Tracking URL打不开,点开报错http 500,并且Log Aggregation Status    NOT_START

如下图所示可以查到相关任务状态

前端点进去是这样的报错

然后再后台用yarn命令查看一下日志和该进程在不在

很可惜也查不到,甚至还提示我Invalid ApplicationId specified,说这个id无效,可明明在列表运行

 首先就是在网上查询相关报错的资料,发现都查不到 o(╥﹏╥)o

没办法,万事靠自己,先查了一下Log Aggregation Status是什么,发现是一个监控任务日志的工具,于是,一个想法蹦进了我的脑子,一顿操作猛如虎,问题解决了!!!!!

哈哈哈哈哈哈

下面说一下解决方法

1.先看一下该任务是在哪台服务器上运行的

### Linux环境下使用`spark-submit --master yarn --deploy-mode client`启动失败的原因分析 当在Linux环境中执行命令 `spark-submit --master yarn --deploy-mode client` 提交应用程序时,如果遇到启动失败的情况,可能由多种因素引起。以下是常见错误及其对应的解决方案: #### 1. YARN资源不足 YARN集群中的可用资源不足以满足提交的应用程序需求可能导致任务无法成功调度并运行。这通常表现为应用被拒绝或者长时间处于等待状态。 - **解决方案**: 调整申请的内存大小和其他资源配置参数以适应当前环境下的实际可利用资源量。可以通过减少分配给驱动器(driver)和执行者(executor)的内存来尝试解决问题[^3]。 #### 2. Hadoop配置不正确 HDFS地址或其他必要的Hadoop配置项未正确定义也可能引发连接不上NameNode等问题,进而影响整个流程。 - **解决方案**: 检查HADOOP_CONF_DIR变量指向的位置是否包含了有效的core-site.xml以及hdfs-site.xml文件,并确认其中定义的服务端口与网络可达性均无误。 #### 3. Spark版本兼容性问题 不同版本之间可能存在API变更或是依赖库差异,特别是对于一些特定功能的支持程度有所区别。 - **解决方案**: 确认所使用的Apache Spark版本同部署的目标平台(如CDH、HDP等)保持一致;必要时升级或降级至匹配版本[^4]。 #### 4. Application Master未能启动 有时尽管客户端看似正常工作,但实际上Application Master并未能顺利初始化,从而导致整体进程终止。 - **异常提示**: org.apache.spark.SparkException: Yarn application has already ended! It might have been killed or unable to launch application master. - **解决方案**: 查看YARN ResourceManager的日志信息寻找更详细的报错描述,排查是否存在权限不够或者其他阻碍AM创建的因素[^5]。 ```bash yarn logs -applicationId <your_application_id> ``` 通过上述方法可以有效定位并解决大部分情况下由于不当操作引起的`spark-submit --master yarn --deploy-mode client`模式下发生的故障现象。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值