您好,登錄后才能下訂單哦!
安裝JDK 1.7以上 Hadoop 2.7.0不支持JDK1.6,Spark 1.5.0開(kāi)始不支持JDK 1.6
安裝Scala 2.10.4
安裝 Hadoop 2.x 至少HDFS
spark-env.sh
export JAVA_HOME= export SCALA_HOME= export HADOOP_CONF_DIR=/opt/modules/hadoop-2.2.0/etc/hadoop //運(yùn)行在yarn上必須要指定 export SPARK_MASTER_IP=server1 export SPARK_MASTER_PORT=8888 export SPARK_MASTER_WEBUI_PORT=8080 export SPARK_WORKER_CORES= export SPARK_WORKER_INSTANCES=1 export SPARK_WORKER_MEMORY=26g export SPARK_WORKER_PORT=7078 export SPARK_WORKER_WEBUI_PORT=8081 export SPARK_JAVA_OPTS="-verbose:gc -XX:-PrintGCDetails -XX:PrintGCTimeStamps"
slaves指定worker節(jié)點(diǎn)
xx.xx.xx.2 xx.xx.xx.3 xx.xx.xx.4 xx.xx.xx.5
運(yùn)行spark-submit時(shí)默認(rèn)的屬性從spark-defaults.conf文件讀取
spark-defaults.conf
spark.master=spark://hadoop-spark.dargon.org:7077
啟動(dòng)集群
start-master.sh start-salves.sh
spark-shell命令其實(shí)也是執(zhí)行spark-submit命令
spark-submit --help
deploy-mode針對(duì)driver program(SparkContext)的client(本地)、cluster(集群)
默認(rèn)是client的,SparkContext運(yùn)行在本地,如果改成cluster則SparkContext運(yùn)行在集群上
hadoop on yarn的部署模式就是cluster,SparkContext運(yùn)行在Application Master
spark-shell quick-start鏈接
http://spark.apache.org/docs/latest/quick-start.html
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。