您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“spark的配置方法分享”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“spark的配置方法分享”吧!
1. spark 可以在3處配置系統(tǒng):spark properties控制大多數(shù)應用程序的參數(shù),通過SparkConf對象或者Java系統(tǒng)property設置;環(huán)境變量在每一臺機器上可以通過conf/spark-env.sh單獨設置;Logging可以通過log4j.properties設置
2. SparkConf單獨為每個應用程序設置,可以設置masterURL,應用程序名,以及任意的鍵值對,通過相應的set方法。spark-shell和spark-submit支持兩種動態(tài)加載配置的方式,第一是通過命令行參數(shù),第二是通過--conf標志。./bin/spark-submit --help可以查看命令參數(shù)。bin/spark-submit也將從conf/spark-defaults.conf文件中加載配置信息,文件中包含以空格分隔的鍵值對。配置的優(yōu)先級從高到低依次是SparkConf > 傳遞到spark-shell或spark-submit的參數(shù) > spark-defaults.conf文件。
3. 常用的應用程序配置參數(shù)
spark.executor.memory
到此,相信大家對“spark的配置方法分享”有了更深的了解,不妨來實際操作一番吧!這里是億速云網(wǎng)站,更多相關內(nèi)容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。