溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

centos下hadoop-spark的安裝方法

發(fā)布時(shí)間:2021-08-02 16:52:22 來源:億速云 閱讀:128 作者:chen 欄目:云計(jì)算

這篇文章主要介紹“centos下hadoop-spark的安裝方法”,在日常操作中,相信很多人在centos下hadoop-spark的安裝方法問題上存在疑惑,小編查閱了各式資料,整理出簡(jiǎn)單好用的操作方法,希望對(duì)大家解答”centos下hadoop-spark的安裝方法”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!

環(huán)境:centos + hadoop2.5.2 +scala-2.10.5 + spark1.3.1

1、從http://spark.apache.org/downloads.html 下載編譯好的spark

   centos下hadoop-spark的安裝方法

2、準(zhǔn)備scala

    從http://www.scala-lang.org/ 下載scala-2.10.5.rpm。不下載2.11,因?yàn)橄螺d2.11要重新編譯spark

    安裝scala
    rpm -ivh scala-2.10.5.rpm

3、解壓spark

tar -zxvf spark-1.3.1-bin-hadoop2.4.tar.gz

4、配置環(huán)境變量

在/etc/profile最后面增加
    export SPARK_HOME=/usr/local/spark-1.3.1-bin-hadoop2.4
    export PATH=$PATH:$SPARK_HOME/bin
    
 # 生效
 source /etc/profile

5、配置spark

vi /usr/local/spark-1.3.1-bin-hadoop2.4/conf/spark-env.sh

在最后面增加:
    export JAVA_HOME=/usr/java/jdk1.7.0_76
    export SPARK_MASTER_IP=192.168.1.21
    export SPARK_WORKER_MEMORY=2g
    export HADOOP_CONF_DIR=/usr/local/hadoop-2.5.2/etc/hadoop

6、配置slave節(jié)點(diǎn)

vi /usr/local/spark-1.3.1-bin-hadoop2.4/conf/slaves
    master
    slaver1

7、復(fù)制配置文件到slave節(jié)點(diǎn)

scp -r /usr/local/spark-1.3.1-bin-hadoop2.4/ root@slaver1:/usr/local/

8、啟動(dòng)集群

cd /usr/local/spark-1.3.1-bin-hadoop2.4/sbin
./start-all.sh

9、查看集群是否啟動(dòng)成功

jps

# master 查看是否有:Master,Worker
# slaver 查看是否有:Worker

    訪問http://master:8080/

centos下hadoop-spark的安裝方法

到此,關(guān)于“centos下hadoop-spark的安裝方法”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注億速云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI