溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何安裝spark依賴yarn執(zhí)行

發(fā)布時(shí)間:2021-11-26 10:58:42 來(lái)源:億速云 閱讀:229 作者:小新 欄目:大數(shù)據(jù)

這篇文章將為大家詳細(xì)講解有關(guān)如何安裝spark依賴yarn執(zhí)行,小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

由于之前安裝hadoop版本是3.30  所以這里下載spark3 

spark下載地址      包含了對(duì)應(yīng)hadoop3的jar包   http://archive.apache.org/dist/spark/spark-3.0.1/spark-3.0.1-bin-hadoop3.2.tgz

完成之后解壓  tar -zxvf spark-3.0.1-bin-hadoop3.2.tgz   mv   spark-3.0.1-bin-hadoop3.2   spark-3 

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)

修改hadoop配置文件/opt/module/hadoop/etc/hadoop/yarn-site.xml, 并分發(fā)
<!--是否啟動(dòng)一個(gè)線程檢查每個(gè)任務(wù)正使用的物理內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
<property>
     <name>yarn.nodemanager.pmem-check-enabled</name>
     <value>false</value>
</property>

<!--是否啟動(dòng)一個(gè)線程檢查每個(gè)任務(wù)正使用的虛擬內(nèi)存量,如果任務(wù)超出分配值,則直接將其殺掉,默認(rèn)是true -->
<property>
     <name>yarn.nodemanager.vmem-check-enabled</name>
     <value>false</value>
</property>

修改配置文件 spark-env.sh 

#jdk路徑
export JAVA_HOME=/bigdata/jdk1.8.0_161
#yarn路徑
YARN_CONF_DIR=/bigdata/hadoop-3.3.0/etc/hadoop
#歷史服務(wù)配置
export SPARK_HISTORY_OPTS="
-Dspark.history.ui.port=18080 
-Dspark.history.fs.logDirectory=hdfs://hadoop1:9000/directory 
-Dspark.history.retainedApplications=30"

修改 spark-defaults.conf

spark.eventLog.enabled          true
#hdfs地址  路徑是先建好的  hdfs dfs -mkdir /directory
spark.eventLog.dir               hdfs://hadoop1:9000/directory
#歷史服務(wù)的web地址
spark.yarn.historyServer.address=hadoop1:18080
spark.history.ui.port=18080
#jar包托管在hdfs中的地址
spark.yarn.jars hdfs://hadoop1:9000/hadoop/spark_jars/*

將spark整合hadoop3的jar包傳到hdfs上

hdfs dfs -mkdir /hadoop
hdfs dfs -mkdir /hadoop/spark_jars
hdfs dfs -put /usr/local/spark-3/jars/* /hadoop/spark_jars

如何安裝spark依賴yarn執(zhí)行

啟動(dòng)歷史服務(wù)        sbin/start-history-server.sh

訪問(wèn)ui沒有問(wèn)題后創(chuàng)建一個(gè)測(cè)試任務(wù)

/bigdata/spark/bin/spark-submit --class mapTest --master yarn    --driver-memory 512m  --executor-memory 512m  --deploy-mode cluster   /spark-demo.jar

如何安裝spark依賴yarn執(zhí)行

完成

關(guān)于“如何安裝spark依賴yarn執(zhí)行”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI