企业🤖AI Agent构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
# # Spark运行机制与原理 1、 spark应用提交后,经历了一系列的转换,最后成为task在每个节点上执行 2、 RDD的Action算子触发Job的提交,生成RDD 有向无环图——DAG图 3、 由DAGScheduler将RDD DAG转化为Stage DAG,每个Stage中产生相应的Task集合 4、 TaskScheduler将任务分发到Executor执行 5、 每个任务对应相应的一个数据块,只用用户定义的函数处理数据块 ![](https://img.kancloud.cn/0e/65/0e65365956c6e1bbf4f345e2ec5fb1b4_651x520.png) 一个用户应用由一个任务控点Driver和几个作业job构成,作业由几个阶段stage构成,一个阶段由几个任务task构成,多个任务并发(多线程处理)开销更低效率更高。 从任务执行的角度看,控制点Driver向资源管理器申请资源,资源管理器启动executor,配置好环境,executor向控制点申请任务,task和应用程序发送给executor执行,迭代调用到任务完成