溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark提交任務到集群的方法

發(fā)布時間:2021-09-15 17:26:07 來源:億速云 閱讀:152 作者:chen 欄目:云計算

這篇文章主要介紹“spark提交任務到集群的方法”,在日常操作中,相信很多人在spark提交任務到集群的方法問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”spark提交任務到集群的方法”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

#Run on a Spark standalone cluster in client deploy mode(運行集群模式,客戶端發(fā)布模式)

spark-submit \
  --class org.apache.spark.examples.SparkPi \
  --master spark://207.184.161.138:7077 \
  --executor-memory 20G \
  --total-executor-cores 100 \
  /path/to/examples.jar \
  1000

如采用:Run on a Spark standalone cluster in cluster deploy mode with supervise(發(fā)布模式為集群,則jar包,每個worker都要有此jar 包)

到此,關于“spark提交任務到集群的方法”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續(xù)學習更多相關知識,請繼續(xù)關注億速云網站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI