溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

spark技巧有哪些呢

發(fā)布時間:2021-12-16 18:51:41 來源:億速云 閱讀:125 作者:柒染 欄目:云計算

spark技巧有哪些呢,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。

1. 設(shè)置消息尺寸最大值

def main(args: Array[String]) {
    System.setProperty("spark.akka.frameSize", "1024")
}

2.與yarn結(jié)合時設(shè)置隊列

val conf=new SparkConf().setAppName("WriteParquet")
conf.set("spark.yarn.queue","wz111")
val sc=new SparkContext(conf)

3.運行時使用yarn分配資源,并設(shè)置--num-executors參數(shù)

nohup /home/SASadm/spark-1.4.1-bin-hadoop2.4/bin/spark-submit
--name mergePartition
--class main.scala.week2.mergePartition
--num-executors 30
--master yarn
mergePartition.jar >server.log 2>&1 &

4.讀取impala的parquet,對String串的處理

sqlContext.setConf("spark.sql.parquet.binaryAsString","true")

5.parquetfile的寫

case class ParquetFormat(usr_id:BigInt , install_ids:String )
val appRdd=sc.textFile("hdfs://").map(_.split("\t")).map(r=>ParquetFormat(r(0).toLong,r(1)))
sqlContext.createDataFrame(appRdd).repartition(1).write.parquet("hdfs://")

 

6.parquetfile的讀

val parquetFile=sqlContext.read.parquet("hdfs://")
parquetFile.registerTempTable("install_running")
val data=sqlContext.sql("select user_id,install_ids from install_running")
data.map(t=>"user_id:"+t(0)+" install_ids:"+t(1)).collect().foreach(println)

7.寫文件時,將所有結(jié)果匯集到一個文件

repartition(1)

8.如果重復(fù)使用的rdd,使用cache緩存

cache()

9.spark-shell 添加依賴包

 spark-1.4.1-bin-hadoop2.4/bin/spark-shell local[4] --jars code.jar

10.spark-shell使用yarn模式,并使用隊列

spark-1.4.1-bin-hadoop2.4/bin/spark-shell --master yarn-client --queue wz111

看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI