溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

Spark sql的批處理物理計(jì)劃BatchScanExec有什么用

發(fā)布時(shí)間:2021-12-16 11:21:04 來(lái)源:億速云 閱讀:247 作者:小新 欄目:云計(jì)算

這篇文章將為大家詳細(xì)講解有關(guān)Spark sql的批處理物理計(jì)劃BatchScanExec有什么用,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

BatchScanExec是batch類(lèi)的物理計(jì)劃,對(duì)應(yīng)的邏輯計(jì)劃是DataSourceV2Relation,是Datasource。

它的入?yún)⑹荢can類(lèi),Scan類(lèi)有兩個(gè)重要方法,一個(gè)獲取分區(qū)列表信息;另一個(gè)方法獲取讀取器工廠(chǎng)。

override lazy val partitions: Seq[InputPartition] = batch.planInputPartitions()
  override lazy val readerFactory: PartitionReaderFactory = batch.createReaderFactory()
  override lazy val inputRDD: RDD[InternalRow] = {
    new DataSourceRDD(sparkContext, partitions, readerFactory, supportsColumnar)
  }

planInputPartitions方法獲取分區(qū)列表;createReaderFactory獲取分區(qū)讀取者工廠(chǎng),這兩者決定一個(gè)DataSourceRDD來(lái)作為inputRDD對(duì)象。

對(duì)于傳統(tǒng)的DataSource類(lèi),只要實(shí)現(xiàn)對(duì)應(yīng)數(shù)據(jù)源的Scan子類(lèi)就可以使用了。

而StreamingDataSourceV2Relation對(duì)應(yīng)的物理計(jì)劃是MicroBatchScanExec和ContinuousScanExec,這時(shí)候Scan就不用了,而使用MicroBatchStream和ContinuousStream兩個(gè)流的定義類(lèi)。

關(guān)于“Spark sql的批處理物理計(jì)劃BatchScanExec有什么用”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI