溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark內核RDD的count操作是什么

發(fā)布時間:2022-01-14 16:51:42 來源:億速云 閱讀:223 作者:iii 欄目:云計算

這篇文章主要介紹“spark內核RDD的count操作是什么”,在日常操作中,相信很多人在spark內核RDD的count操作是什么問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”spark內核RDD的count操作是什么”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

RDD源碼的count方法:

spark內核RDD的count操作是什么

從上面代碼可以看出來,count方法觸發(fā)SparkContext的runJob方法的調用:

spark內核RDD的count操作是什么

進一步跟蹤runJob(rdd, (context: TaskContext, iter: Iterator[T]) => func(iter), partitions, allowLocal)方法:

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

2、clean(func):

spark內核RDD的count操作是什么

代碼分析:

3.1、進入submitJob(rdd, func, partitions, callSite, allowLocal, resultHandler, properties):

spark內核RDD的count操作是什么

上面代碼分析:

3.1.1、 進入new JobWaiter(this, jobId, partitions.size, resultHandler)方法

spark內核RDD的count操作是什么

我們可以看出來,是給自己發(fā)消息的

3.1.3、進入  dagScheduler.handleJobSubmitted(jobId, rdd, func, partitions, allowLocal, callSite,listener, properties)方法

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

首先構建finalStage,然后又一個getMissingParentsStages方法,可以發(fā)現運行有本地運行和集群運行兩種模式,本地運行主要用于本地實驗和調試:

3.1.3.1、進入  finalStage = newStage(finalRDD, partitions.size, None, jobId, callSite)方法:

spark內核RDD的count操作是什么

3.1.3.2、進入 runLocally(job)方法:

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

3.1.3.3.2、進入  getMissingParentStages(stage).sortBy(_.id) 方法:

spark內核RDD的count操作是什么

跟進getShuffleMapState方法:

spark內核RDD的count操作是什么

3.1.3.3.3、進入submitMissingTasks(stage, jobId.get) 方法:

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

spark內核RDD的count操作是什么

到此,關于“spark內核RDD的count操作是什么”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續(xù)學習更多相關知識,請繼續(xù)關注億速云網站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI