溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么進行SparkSQL部署與簡單使用

發(fā)布時間:2021-12-17 13:45:24 來源:億速云 閱讀:445 作者:柒染 欄目:大數(shù)據(jù)

這篇文章將為大家詳細講解有關(guān)怎么進行SparkSQL部署與簡單使用,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。

一、運行環(huán)境

?  JDK:1.8.0_45 64位

?  hadoop-2.6.0-cdh6.7.0

?  Scala:2.11.8

?  spark-2.3.1-bin-2.6.0-cdh6.7.0(需要自己編譯)

?  hive-1.1.0-cdh6.7.0

?  MySQL5.6

二、SparkSQL運行準備

#元數(shù)據(jù)存在MySQL,啟動MySQL

[root@hadoop001 ~]# su mysqladmin
[mysqladmin@hadoop001 root]$ cd ~
[mysqladmin@hadoop001 ~]$ service mysql start
Starting MySQL                                             [  OK  ]

#啟動HDFS

[hadoop@hadoop001 sbin]$ ./start-dfs.sh

#配置SparkSQL 的hive-site.xml

[hadoop@hadoop001 ~]$ cp $HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/

三、SparkSQL啟動

#spark-sehll方式啟動:

[hadoop@hadoop001 bin]$ ./spark-shell --master local[2] \
 --jars ~/software/mysql-connector-java-5.1.34-bin.jar
 
scala> spark.sql("use hive_data2").show(false)
scala> spark.sql("select * from emp").show(false)
+-----+------+---------+----+----------+-------+------+------+                  
|empno|ename |job      |mgr |hiredate  |salary |comm  |deptno|
+-----+------+---------+----+----------+-------+------+------+
|7369 |SMITH |CLERK    |7902|1980-12-17|800.0  |null  |20    |
|7499 |ALLEN |SALESMAN |7698|1981-2-20 |1600.0 |300.0 |30    |
|7521 |WARD  |SALESMAN |7698|1981-2-22 |1250.0 |500.0 |30    |
|7566 |JONES |MANAGER  |7839|1981-4-2  |2975.0 |null  |20    |
|7654 |MARTIN|SALESMAN |7698|1981-9-28 |1250.0 |1400.0|30    |
|7698 |BLAKE |MANAGER  |7839|1981-5-1  |2850.0 |null  |30    |
|7782 |CLARK |MANAGER  |7839|1981-6-9  |2450.0 |null  |10    |
|7788 |SCOTT |ANALYST  |7566|1987-4-19 |3000.0 |null  |20    |
|7839 |KING  |PRESIDENT|null|1981-11-17|5000.0 |null  |10    |
|7844 |TURNER|SALESMAN |7698|1981-9-8  |1500.0 |0.0   |30    |
|7876 |ADAMS |CLERK    |7788|1987-5-23 |1100.0 |null  |20    |
|7900 |JAMES |CLERK    |7698|1981-12-3 |950.0  |null  |30    |
|7902 |FORD  |ANALYST  |7566|1981-12-3 |3000.0 |null  |20    |
|7934 |MILLER|CLERK    |7782|1982-1-23 |1300.0 |null  |10    |
|8888 |HIVE  |PROGRAM  |7839|1988-1-23 |10300.0|null  |null  |
+-----+------+---------+----+----------+-------+------+------+

#spark-sql方式啟動:

[hadoop@hadoop001 bin]$ ./spark-sql --master local[2] \
--driver-class-path ~/software/mysql-connector-java-5.1.34-bin.jar   
#進入數(shù)據(jù)庫
spark-sql> use hive_data2;
18/08/30 20:36:52 INFO HiveMetaStore: 0: get_database: hive_data2
18/08/30 20:36:52 INFO audit: ugi=hadoop        ip=unknown-ip-addr      cmd=get_database: hive_data2
Time taken: 0.114 seconds
#查詢數(shù)據(jù)
spark-sql> select * from emp;
18/08/30 20:37:05 INFO DAGScheduler: Job 0 finished: processCmd at CliDriver.java:376, took 1.292944 s
7369    SMITH   CLERK   7902    1980-12-17      800.0   NULL    20
7499    ALLEN   SALESMAN        7698    1981-2-20       1600.0  300.0   30
7521    WARD    SALESMAN        7698    1981-2-22       1250.0  500.0   30
7566    JONES   MANAGER 7839    1981-4-2        2975.0  NULL    20
7654    MARTIN  SALESMAN        7698    1981-9-28       1250.0  1400.0  30
7698    BLAKE   MANAGER 7839    1981-5-1        2850.0  NULL    30
7782    CLARK   MANAGER 7839    1981-6-9        2450.0  NULL    10
7788    SCOTT   ANALYST 7566    1987-4-19       3000.0  NULL    20
7839    KING    PRESIDENT       NULL    1981-11-17      5000.0  NULL    10
7844    TURNER  SALESMAN        7698    1981-9-8        1500.0  0.0     30
7876    ADAMS   CLERK   7788    1987-5-23       1100.0  NULL    20
7900    JAMES   CLERK   7698    1981-12-3       950.0   NULL    30
7902    FORD    ANALYST 7566    1981-12-3       3000.0  NULL    20
7934    MILLER  CLERK   7782    1982-1-23       1300.0  NULL    10
8888    HIVE    PROGRAM 7839    1988-1-23       10300.0 NULL    NULL

關(guān)于怎么進行SparkSQL部署與簡單使用就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI