您好,登錄后才能下訂單哦!
這篇文章主要介紹“spark提交任務到集群的方法”,在日常操作中,相信很多人在spark提交任務到集群的方法問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”spark提交任務到集群的方法”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
#Run on a Spark standalone cluster in client deploy mode(運行集群模式,客戶端發(fā)布模式)
spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://207.184.161.138:7077 \
--executor-memory 20G \
--total-executor-cores 100 \
/path/to/examples.jar \
1000
如采用:Run on a Spark standalone cluster in cluster deploy mode with supervise(發(fā)布模式為集群,則jar包,每個worker都要有此jar 包)
到此,關于“spark提交任務到集群的方法”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續(xù)學習更多相關知識,請繼續(xù)關注億速云網站,小編會繼續(xù)努力為大家?guī)砀鄬嵱玫奈恼拢?/p>
免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。