WordCount的代碼
主要是從HDFS讀取文件后進行單詞切割,然后進行計數,如果不懂RDD算子可以看RDD詳解
WordCount的各個算子
SparkRDD的運行流程
SparkRDD寬依賴和窄依賴
SparkRDD之間的依賴主要有:
1.寬依賴
寬依賴指的是多個子RDD的Partition會依賴同一個父RDD的Partition
總結:窄依賴我們形象的比喻為超生
2.窄依賴
窄依賴指的是每一個父RDD的Partition最多被子RDD的一個Partition使用
總結:窄依賴我們形象的比喻為獨生子女
結合WordCount的源碼分析
WordCount算子內部解析
在WordCount程序中,第一個使用的Spark方法是textFile()方法,主要的源碼是
這個方法的主要作用是從HDFS中讀取數據, 這里創(chuàng)建一個HadoopRDD,在這個方法內部還創(chuàng)建一個MapPartitionRDD,接下里的幾個 RDD同樣是MapPartitionRDD,最主要的是看saveAsTextFile()方法悉盆。 下面是saveAsTextFile()方法,代碼在RDD類的1272行,具體內容如下:
這個方法的主要作用是產生一個RDD,MapPartitionsRDD;然后將RDD轉化為PairRDDFuctions,接下來是saveAsHadoopFile()方法: 主要的代碼如下:
繼續(xù)查看saveAsHadoopDataset()方法源碼,主要的代碼如下:
代碼解析:
1.獲取寫入HDFS中的文件流
2.一個函數將分區(qū)數據迭代的寫入到HDFS中
3.開始提交作業(yè),Self表示Final RDD也就是作業(yè)最后的RDD在WordCount中也就是MapPartitionsRDD
這里我們將會追蹤到runJob()方法中,
這里我們繼續(xù)追蹤到runJob()的重載方法,夏滿是這個方法的核心代碼:
這里是非常重要的方法,主要做的工作是調用SparkContext類中創(chuàng)建的dagScheduler,使用dagScheduler劃分Stage,然后將Stage轉化為TaskSet交給TaskScheduler在交個Executor執(zhí)行
劃分Stage
在前面的分析中,我們已經知道了dagScheduler調用了runJob()方法,這個方法的作用是劃分stage火诸。
這里主要是劃分stage,然后調用submitJob()返回一個調度器,這里我們繼續(xù)查看submitJob()方法苏遥。
上面是submitJob()方法的核心代碼,主要的作用是eventProcessLoop對象內部有一個阻塞隊列和線程商虐,先將數據封裝到Case Class中將事件放入到阻塞隊列聂受。
對于JobSubmitted類的模式匹配,主要的代碼如下:
這里調用dagScheduler的handleJobSubmitted()方法,這個方法是對stage劃分的主要方法,主要的核心代碼:
通過newStage()方法,根據這個方法在這里可以看出分區(qū)的數量決定Task數量伐庭。 通過追蹤newStage()方法,主要的代碼如下:
這個方法是遞歸的劃分Stage,主要的方法是getParentStages(rdd, jobId),具體的劃分代碼如下:
stage劃分算法如下:
涉及的數據結構:棧搂蜓、HashSet
1.通過最后的RDD,獲取父RDD
2.將finalRDD放入棧中,然后出棧,進行for循環(huán)的找到RDD的依賴,需要注意的是RDD可能有多個依賴
3.如果RDD依賴是ShuffleDependency,那么就可以劃分成為一個新的Stage,然后通過getShuffleMapStage()獲取這個stage的父stage;如果是一般的窄依賴,那么將會入棧
4.通過getShuffleMapStage()遞歸調用,得到父stage;一直到父stage是null
5.最后返回stage的集合
stage提交算法
在對于最后一個RDD劃stage后,進行提交stage,主要的方法是:
這里和劃分stage的算法一樣,拿到最后的stage然后找到第一個stage開始從第一個stage開始提交逆皮。
stage提交
下面的代碼是submitMissingTasks(),主要是核心的代碼:
這里主要做的工作是根據分區(qū)數量決定Task數量,然后根據stage的類型創(chuàng)建Task,這里主要有ShuffleMapTask和ResultTask无畔。
ShuffleMapTask:進行分區(qū)局部聚合,從上游拉去數據啊楚。
ResultTask:將結果寫入持久化介質.比如HDFS等。
這里將Task進行封裝成為TaskSet進行提交給taskScheduler浑彰。
關于Stage劃分流程圖
總結
1.textFile()方法會產生兩個RDD,HadoopRDD和MapPartitionRDD
2.saveTextAsFile()方法會產生一個RDD,MapPartitionRDD
3.Task數量取決于HDFS分區(qū)數量
4.Stage劃分是通過最后的RDD,也就是final RDD根據依賴關系進行遞歸劃分
5.stage提交主要是通過遞歸算法,根據最后一個Stage劃分然后遞歸找到第一個stage開始從第一個stage開始提交恭理。
喜歡小編的文章可以關注喲!