您好,登錄后才能下訂單哦!
1、Knime Analytics 安裝
從官方網(wǎng)站下載合適的版本 https://www.knime.com/downloads
將下載的安裝包在安裝路徑解壓 https://www.knime.com/installation-0
下圖是knime啟動后的歡迎頁面
要與spark集×××互,需要在Knime中安裝KNIME? Extension for Apache Spark。并在Hadoop集群邊界節(jié)點(diǎn)或能夠執(zhí)行spark-submit的節(jié)點(diǎn)安裝Spark Job Server。架構(gòu)圖如下:
2、KNIME? Extension for Apache Spark 安裝
在KNIME Analytics 中點(diǎn)擊File->Install KNIME extensions選中KNIME Big Data Extensions,點(diǎn)擊Next安裝。
3、SPARK JOB SERVER安裝
以下步驟以Centos 6.5 + CDH 5.7 為例
3.1 下載spark job server
$ wget http://download.knime.org/store/3.5/spark-job-server-0.6.2.3-KNIME_cdh-5.7.tar.gz
3.2 login as root or su root
3.3 安裝
# LINKNAME=spark-job-server # useradd -d /opt/${LINKNAME}/ -M -r -s /bin/false spark-job-server # su -l -c "hdfs dfs -mkdir -p /user/spark-job-server ; hdfs dfs -chown -R spark-job-server /user/spark-job-server" hdfs # cp spark-job-server-0.6.2.3-KNIME_cdh-5.7.tar.gz /opt # cd /opt # tar -xvf spark-job-server-0.6.2.3-KNIME_cdh-5.7.tar.gz # ln -s spark-job-server-0.6.2.3-KNIME_cdh-5.7 ${LINKNAME} # chown -R spark-job-server:spark-job-server ${LINKNAME} spark-job-server-0.6.2.3-KNIME_cdh-5.7 |
3.4 開機(jī)啟動
# ln -s /opt/${LINKNAME}/spark-job-server-init.d /etc/init.d/${LINKNAME} #chkconfig --levels 2345 ${LINKNAME} on |
3.5 編輯environment.conf
設(shè)置master,例如
master = "spark://ifrebdplatform1:7077"
設(shè)置Default settings for Spark contexts: context-settings
3.6 編輯設(shè)置settings.sh
設(shè)置SPARK_HOME,本例默認(rèn)正確,不做改變
設(shè)置LOG_DIR,如果不用默認(rèn)設(shè)置的目錄的話
3.7 根據(jù)喜好編輯log4j-server.properties
3.8 啟動spark job server
/etc/init.d/${LINKNAME} start
3.9 在knime 添加create spark context 節(jié)點(diǎn)測試鏈接
右擊create spark context 節(jié)點(diǎn),點(diǎn)擊Execute執(zhí)行
右擊create spark context 節(jié)點(diǎn),點(diǎn)擊Spark Context,查看結(jié)果
未完待續(xù)......
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。