您好,登錄后才能下訂單哦!
1、保證spark-sql已經(jīng)使用mysql作為metadata存儲(chǔ)介質(zhì)
2、啟動(dòng)thrift網(wǎng)關(guān)
$SPARK_HOME/sbin/start-thriftserver.sh --driver-class-path /usr/local/spark/spark-1.3.0-bin-hadoop2.3/lib/mysql-connector-java-5.1.6-bin.jar --master spark://hd1:7077 --executor-memory 2g --total-executor-cores 10
3、確認(rèn)是否正確
beeline
>!connect jdbc:hive2://hd1:10000
user:hadoop
password:******
show databases;
show tables;
如果能夠看到和本地啟動(dòng)的spark-sql一樣的結(jié)果,就是確認(rèn)成功了。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。