- producer生产者产生数据
- Spark Streaming的Driver让一个Executor运行一个Task接收器每隔一段时间主动向生产者拿数据
- 根据时间间隔:批处理时间间隔将DStream分割为多分RDD数据集合
- 根据blockInterval:每个Block时间间隔将每个RDD分割为不同的块Block
- 将块Block 的分割返回给Driver
- Driver运行job分析数据
- 将处理结果输出到控制台或者存储到数据库中
Spark Streaming工作步骤详解
最新推荐文章于 2024-01-04 15:31:53 发布