【Streaming】为什么提交任务后,worker不断重启,任务部署总是不成功?

本文分析了使用Storm框架部署拓扑时遇到的Netty连接超时导致部署失败的问题,并提供了增大连接超时时间的解决方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

提问:提交某一任务拓扑后,在界面上看,任务一直部署不成功。或者看起来部署成功,有开始数据,但总数据量不断从0开始计数
分析 一般这种情况出现在某一拓扑中包含大量worker,且worker中包含大量并发线程数。
1. 在UI界面上,点击进入相应spout/bolt,观察其各个线程,发现线程的up时间不断从0开始
2. 在分配有work的节点环境中,使用JPS可以看到,worker进行不断重启
3. 打开某一相关worker(端口)日志文件,可以看到文件中有大量如下错误日志:
Waiting for pending batchs to be sent with Netty-Client-storm7/166.0.0.64:29103…, timeout 6000
b.s.util [ERROR] Async loop died!
java.lang.RuntimeException: java.lang.RuntimeException: Client is being closed, and does not take requests any more
at backtype.storm.utils.DisruptorQueue.consumeBatchToCursor(DisruptorQueue.java:90) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.utils.DisruptorQueue.consumeBatchWhenAvailable(DisruptorQueue.java:61) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.disruptor$consume_batch_when_available.invoke(disruptor.clj:62) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.disruptor$consume_loop_STAR_$fn__2975.invoke(disruptor.clj:74) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.util$async_loop$fn__444.invoke(util.clj:403) ~[storm-core-0.9.0.1.jar:na]
at clojure.lang.AFn.run(AFn.java:24) [clojure-1.4.0.jar:na]
at java.lang.Thread.run(Thread.java:662) [na:1.6.0_35]
Caused by: java.lang.RuntimeException: Client is being closed, and does not take requests any more
at backtype.storm.messaging.netty.Client.send(Client.java:109) ~[storm-netty-0.9.0.1.jar:na]
at backtype.storm.daemon.worker$mk_transfer_tuples_handler$fn__5867$fn__5868.invoke(worker.clj:304) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.daemon.worker$mk_transfer_tuples_handler$fn__5867.invoke(worker.clj:293) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.disruptor$clojure_handler$reify__2962.onEvent(disruptor.clj:43) ~[storm-core-0.9.0.1.jar:na]
at backtype.storm.utils.DisruptorQueue.consumeBatchToCursor(DisruptorQueue.java:87) ~[storm-core-0.9.0.1.jar:na]
... 6 common frames omitted
Halting process: (“Async loop died!”) 
4. 可见,由于worker1(client)与worker2(server)之间通过Netty进行通信,当netty通信连接在设置时间内无法建立,就会导致worker1的netty客户端被关闭,进而导致worker1进程kill掉,并被supervisor重起。尤其是当某拓扑中包含的worker较多,且worker中线程较多,worker进行启动时,需要耗费较长时间时,往往会由于netty连接超时而导致已启动的worker又被重启,导致整个拓扑无法正常部署
解决方法:加大worker间Nettey建立连接的超时总时间,保证在设定时间内,topo能够稳定部署成功
1. 增大storm.messaging.netty.max_retries设置,默认为30,可设置如60
2. 增加storm.messaging.netty.max_wait_ms设置,默认为1000,可设置如2000

可能的影响:如果是由于逻辑问题导致连接异常,会较晚(设定较长超时时间后)才会重启。

### Spark 架构设计原理详解 #### 三大核心概念 Spark架构围绕着三个主要的核心概念展开:弹性分布式数据集(RDD)、驱动器(Driver)和执行器(Executor)。这些组件共同协作,使得Spark能够高效地处理大规模的数据。 - **弹性分布式数据集 (RDD)** 是一种只读的分区记录集合。虽然应用程序代码中的RDD与实际执行过程中的物理RDD并非一一对应[^1],但是这种抽象允许开发者以高层次的方式操作数据而无需关心底层细节。 - **驱动器 (Driver)** 负责协调整个作业流程。当一个Spark应用启动时,会先创建Driver进程来初始化运行环境并管理后续的任务调度等工作[^4]。它通过`SparkContext`对象与其他部分交互,并负责构建逻辑计划、优化查询以及分发任务给各个节点上的Executors去执行具体的计算任务。 - **执行器 (Executor)** 运行于集群各节点之上,接收来自Driver发出的具体指令完成相应运算工作。它们承载了真正意义上的数据处理活动——加载输入源、转换中间结果直至最终输出目标位置。 #### 集群模式下的运作方式 在集群环境中部署Spark时,其采用的是Master-Slave结构化拓扑图形式来进行管理和通信控制。具体来说: - Master节点通常指代Cluster Manager所在之处;Slave则代表Worker Node上驻留的服务端口等待接受命令指示开展下一步动作。每当有新的Job请求到达后,Master就会依据当前系统的负载情况动态调整资源分配比例从而实现最优性能表现[^2]。 #### 容错机制保障可靠性 为了确保即使遇到意外状况也能维持稳定服务状态,Spark内置了一套完整的错误恢复方案。例如,在Streaming场景下可以通过设定检查点(checkpointing)频率来保存进度信息以便重启之后继续未竟之事而至于丢失任何有价值的信息[^3]。此外还有诸如WAL日志写前日志等其他手段进一步增强了整体鲁棒性水平。 ```python from pyspark import SparkConf, SparkContext conf = SparkConf().setAppName("example") sc = SparkContext(conf=conf) # Example operation using RDDs lines = sc.textFile("hdfs://path/to/input.txt") word_counts = lines.flatMap(lambda line: line.split()) \ .map(lambda word: (word, 1)) \ .reduceByKey(lambda a, b: a + b) word_counts.saveAsTextFile("hdfs://path/to/output/") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值