spark任务提交的四个阶段和stage的流程

十年热恋 提交于 2019-12-02 02:53:39

spark任务提交的四个阶段

在这里插入图片描述

1、构建DAG

用户提交的job将首先被转换成一系列RDD并通过RDD之间的依赖关系构建DAG,然后将DAG提交到调度系统;

2、DAGScheduler将DAG切分stage(切分依据是shuffle),将stage中生成的task以taskset的形式发送给TaskScheduler
3、Scheduler 调度task(根据资源情况将task调度到Executors)
4、Executors接收task,然后将task交给线程池执行。

DAG的生成、stage切分、task的生成、任务提交
在这里插入图片描述

stage的流程

park划分stage的整体思路是:从后往前推,遇到宽依赖就断开,划分为一个stage;遇到窄依赖就将这个RDD加入该stage中。

为什么要切分stage?

个复杂是业务逻辑(将多台机器上具有相同属性的数据聚合到一台机器上:shuffle)如果有shuffle,那么就意味着前面阶段产生结果后,才能执行下一个阶段,下一个阶段的计算依赖上一个阶段的数据在同一个stage中,会有多个算子,可以合并到一起,我们很难‘’称其为pipeline(流水线,严格按照流程、顺序执行)

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!