stage划分
窄依赖 -- 每个父RDD的partition 最多被子RDD的一个partition 使用
宽依赖 -- 多个子RDD 的partition 依赖于同一个父RDD的 partition
宽依赖 是 划分stage的依据
stage 划分 从触发 action的操作开始向前倒推 若是窄依赖 就是当前的stage 若是宽依赖 就是一个新的 stage
一个stage内部 每个partition都会被分配一个计算任务--task 这些task并行执行
stage之间的依赖关系变成了 大粒度的 DAG
task-分为两种 : shuffleMapTask resultTask
stage划分算法总结:
1、从finalStage倒推
2、通过宽依赖,来进行新的stage划分
3、使用递归,优先提交父stage
对于每种有shuffle的操作 , 比如groupBykey 、reduceByKey、countByKey
底层对应了三个RDD : MapPartitionsRDD 、ShuffleRDD、MapPartitionsRDD
相关推荐
spark-3.1.2.tgz版本 & spark-3.1.2-bin-hadoop2.7.tgz版本
本资源是spark-2.0.0-bin-hadoop2.6.tgz百度网盘资源下载,本资源是spark-2.0.0-bin-hadoop2.6.tgz百度网盘资源下载
spark-3.2.0-bin-hadoop3.2.tgz
Apache Spark版本3.1.3。Linux安装包。spark-3.1.3-bin-hadoop3.2.tgz
Spark安装包:spark-3.1.3-bin-without-hadoop.tgz
Spark Doris Connector(apache-doris-spark-connector-2.3_2.11-1.0.1-incubating-src.tar.gz) Spark Doris Connector Version:1.0.1 Spark Version:2.x Scala Version:2.11 Apache Doris是一个现代MPP分析...
spark-3.0.0-bin-hadoop3.2下载安装包
spark-hive_2.11-2.3.0 spark-hive-thriftserver_2.11-2.3.0.jar log4j-2.15.0.jar slf4j-api-1.7.7.jar slf4j-log4j12-1.7.25.jar curator-client-2.4.0.jar curator-framework-2.4.0.jar curator-recipes-2.4.0....
pyspark本地的环境配置包,spark-2.3.4-bin-hadoop2.7.tgz:spark-2.3.4-bin-hadoop2.7.tgz
spark-3.2.4-bin-hadoop3.2-scala2.13 安装包
内容概要:由于cdh6.3.2的spark版本为2.4.0,并且spark-sql被阉割,现基于cdh6.3.2,scala2.12.0,java1.8,maven3.6.3,,对spark-3.2.2源码进行编译 应用:该资源可用于cdh6.3.2集群配置spark客户端,用于spark-sql
linux的spark新版本,匹配hadoop2.7版本,spark-3.2.1-bin-hadoop2.7.tgz
spark-3.2.0-bin-hadoop3-without-hive
spark-streaming-flume_2.11-2.1.0.jar
spark-2.4.0-bin-hadoop2.7
spark-streaming-kafka-0-10_2.11-2.4.0-cdh6.1.1.jar
spark-streaming-kafka-0-8_2.11-2.4.0.jar
spark-3.2.1-bin-hadoop3.2-scala2.13.tgz
这是每个学习spark必备的jar包,是根据我的个人试验后所得,官网正版,在spark官网下载。 资源包里不仅有需要的jar包,并且给不会再官网上下载的新手官方网址,可以自由下载资源
spark-assembly-1.5.2-hadoop2.6.0 在spark编程中使用的一个jar