spark消费kafka数据报错 Queries with streaming sources must be executed with writeStream.start();

博主在时隔三年后重新尝试使用Spark编程,遇到了运行时错误。问题源于仅调用了.start()方法而未终止流处理,导致异常。解决方法是启动两个分支并确保正确终止。参考StackOverflow上的解答,通过启动并等待终止来避免此类问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

有3年没有写spark了一切都是这么陌生MD. 今天跑下还报错,
在这里插入图片描述
解决参考:
https://stackoverflow.com/questions/40609771/queries-with-streaming-sources-must-be-executed-with-writestream-start
在这里插入图片描述
原因是:只调用.start()了一个悬空没有终止,这反过来又抛出了你回来的异常。
解决方案是启动两个分支并等待终止。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值