溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

如何分析spark-submit工具參數(shù)

發(fā)布時(shí)間:2021-12-16 18:47:18 來(lái)源:億速云 閱讀:229 作者:柒染 欄目:云計(jì)算

這篇文章將為大家詳細(xì)講解有關(guān)如何分析spark-submit工具參數(shù),文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對(duì)相關(guān)知識(shí)有一定的了解。

執(zhí)行時(shí)需要傳入的參數(shù)說(shuō)明

Usage: spark-submit [options] <app jar | python file> [app options]

參數(shù)名稱(chēng)

含義

--master MASTER_URL

可以是spark://host:port, mesos://host:port, yarn,  yarn-cluster,yarn-client, local

--deploy-mode DEPLOY_MODE

Driver程序運(yùn)行的地方,client或者cluster

--class CLASS_NAME

主類(lèi)名稱(chēng),含包名

--name NAME

Application名稱(chēng)

--jars JARS

Driver依賴(lài)的第三方j(luò)ar包

--py-files PY_FILES

用逗號(hào)隔開(kāi)的放置在Python應(yīng)用程序PYTHONPATH上的.zip,  .egg, .py文件列表

--files FILES

用逗號(hào)隔開(kāi)的要放置在每個(gè)executor工作目錄的文件列表

--properties-file FILE

設(shè)置應(yīng)用程序?qū)傩缘奈募窂?,默認(rèn)是conf/spark-defaults.conf

--driver-memory MEM

Driver程序使用內(nèi)存大小

--driver-java-options


--driver-library-path

Driver程序的庫(kù)路徑

--driver-class-path

Driver程序的類(lèi)路徑

--executor-memory MEM

executor內(nèi)存大小,默認(rèn)1G

--driver-cores NUM

Driver程序的使用CPU個(gè)數(shù),僅限于Spark Alone模式

--supervise

失敗后是否重啟Driver,僅限于Spark  Alone模式

--total-executor-cores NUM

executor使用的總核數(shù),僅限于Spark Alone、Spark on Mesos模式

--executor-cores NUM

每個(gè)executor使用的內(nèi)核數(shù),默認(rèn)為1,僅限于Spark on Yarn模式

--queue QUEUE_NAME

提交應(yīng)用程序給哪個(gè)YARN的隊(duì)列,默認(rèn)是default隊(duì)列,僅限于Spark on Yarn模式

--num-executors NUM

啟動(dòng)的executor數(shù)量,默認(rèn)是2個(gè),僅限于Spark on Yarn模式

--archives ARCHIVES

僅限于Spark on Yarn模式


關(guān)于如何分析spark-submit工具參數(shù)就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI