溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶(hù)服務(wù)條款》

spark 1.X standalone和on yarn安裝配置

發(fā)布時(shí)間:2020-07-23 16:35:19 來(lái)源:網(wǎng)絡(luò) 閱讀:834 作者:jethai 欄目:大數(shù)據(jù)


安裝JDK 1.7以上 Hadoop 2.7.0不支持JDK1.6,Spark 1.5.0開(kāi)始不支持JDK 1.6

安裝Scala 2.10.4

安裝 Hadoop 2.x  至少HDFS



spark-env.sh



export JAVA_HOME=

export SCALA_HOME=

export HADOOP_CONF_DIR=/opt/modules/hadoop-2.2.0/etc/hadoop //運(yùn)行在yarn上必須要指定

export SPARK_MASTER_IP=server1

export SPARK_MASTER_PORT=8888

export SPARK_MASTER_WEBUI_PORT=8080

export SPARK_WORKER_CORES=

export SPARK_WORKER_INSTANCES=1

export SPARK_WORKER_MEMORY=26g

export SPARK_WORKER_PORT=7078

export SPARK_WORKER_WEBUI_PORT=8081

export SPARK_JAVA_OPTS="-verbose:gc -XX:-PrintGCDetails -XX:PrintGCTimeStamps"


slaves指定worker節(jié)點(diǎn)

xx.xx.xx.2
xx.xx.xx.3
xx.xx.xx.4
xx.xx.xx.5


運(yùn)行spark-submit時(shí)默認(rèn)的屬性從spark-defaults.conf文件讀取

spark-defaults.conf

spark.master=spark://hadoop-spark.dargon.org:7077


啟動(dòng)集群

start-master.sh
start-salves.sh


spark-shell命令其實(shí)也是執(zhí)行spark-submit命令


spark-submit --help

spark 1.X  standalone和on yarn安裝配置


deploy-mode針對(duì)driver program(SparkContext)的client(本地)、cluster(集群)

默認(rèn)是client的,SparkContext運(yùn)行在本地,如果改成cluster則SparkContext運(yùn)行在集群上

hadoop on yarn的部署模式就是cluster,SparkContext運(yùn)行在Application Master






spark-shell quick-start鏈接

http://spark.apache.org/docs/latest/quick-start.html


向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI