溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

spark1.4.1如何配置

發(fā)布時間:2021-12-07 14:27:23 來源:億速云 閱讀:137 作者:小新 欄目:云計算

這篇文章將為大家詳細講解有關(guān)spark1.4.1如何配置,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

1.創(chuàng)建腳本

cd /opt/spark-1.4.1-bin-hadoop2.6/conf
cp spark-env.sh.template spark-env.sh
cp slaves.template slaves

2.程序加入環(huán)境變量

vi spark-env.sh

export JAVA_HOME=/opt/jdk1.7.0_75
export SCALA_HOME=/opt/scala-2.11.6
export HADOOP_CONF_DIR=/opt/hadoop-2.6.0/etc/hadoop

# spark的work目錄臨時文件自動清理,清理頻率每半小時
export SPARK_WORKER_DIR="/home/hadoop/spark/worker/"
export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800"

vi slaves
填入各節(jié)點hostname

3.系統(tǒng)加入環(huán)境變量

vi /etc/profile
export SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6
export PATH=$SPARK_HOME/bin:$PATH

4.啟動

cd ../sbin/
./start-all.sh

5.查看進程是否啟動

jps
4211 Master
4367 Worker

6.進入spark的web頁面 http://spore:8080/


7.使用spark-shell

cd ../bin/
./spark-shell

8.sparkUI http://spore:4040

源碼閱讀,查看spark支持哪些sql關(guān)鍵字:

spark\sql\catalyst\src\main\scala\org\apache\spark\sql\catalyst\SQLParser.scala

spark-sql自定義函數(shù)例子

http://colobu.com/2014/12/11/spark-sql-quick-start/

如果要使用bin/spark-sql這個命令

必須啟動hive metastore且conf/hive-site.xml內(nèi)必須要有hive.metastore.uris的配置,例如

<configuration>
    <property>
      <name>hive.metastore.uris</name>
      <value>thrift://byd0087:9083</value>
    </property>
</configuration>

啟動bin/spark-sql,即可使用hive的HQL語句,速度可比hive快多了

關(guān)于“spark1.4.1如何配置”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI