每个应用在一个WorkerNode上只会有一个Executor。每个partition都会由一个task负责运行,有多少partition就有多少task。
DAGScheduler给TaskScheduler发送任务时候以stage为单位提交的
TaskSet 其实就是task组成的一个数组
本文详细解析了Spark中任务的调度机制,阐述了每个应用在WorkerNode上的Executor特性,以及DAGScheduler如何以stage为单位向TaskScheduler提交任务。同时,介绍了TaskSet的概念,即由多个task组成的数组,每个task负责运行一个partition。
每个应用在一个WorkerNode上只会有一个Executor。每个partition都会由一个task负责运行,有多少partition就有多少task。
DAGScheduler给TaskScheduler发送任务时候以stage为单位提交的
TaskSet 其实就是task组成的一个数组

被折叠的 条评论
为什么被折叠?