您好,登錄后才能下訂單哦!
小編給大家分享一下Spark RDD常用算子是什么類(lèi)型的,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
Spark之所以比Hadoop靈活和強(qiáng)大,其中一個(gè)原因是Spark內(nèi)置了許多有用的算子,也就是方法。通過(guò)對(duì)這些方法的組合,編程人員就可以寫(xiě)出自己想要的功能。說(shuō)白了spark編程就是對(duì)spark算子的使用,下面為大家詳細(xì)講解一下SparkValue類(lèi)型的常用算子
map() 接收一個(gè)函數(shù),該函數(shù)將RDD中的元素逐條進(jìn)行映射轉(zhuǎn)換,可以是類(lèi)型的轉(zhuǎn)換,也可以是值的轉(zhuǎn)換,將函數(shù)的返回結(jié)果作為結(jié)果RDD編程。
def map[U: ClassTag](f: T => U): RDD[U]
val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val sc = new SparkContext(sparkConf) //算子 -map val rdd = sc.makeRDD(List(1, 2, 3, 4),2) val mapRdd1 = rdd.map( _*2 ) mapRdd1.collect().foreach(println) sc.stop()
運(yùn)行結(jié)果
2 4 6 8
將待處理的數(shù)據(jù)以分區(qū)
為單位發(fā)送到待計(jì)算節(jié)點(diǎn)上進(jìn)行處理,mapPartition是對(duì)RDD的每一個(gè)分區(qū)的迭代器
進(jìn)行操作,返回的是迭代器。這里的處理可以進(jìn)行任意的處理。
def mapPartitions[U: ClassTag]( f: Iterator[T] => Iterator[U], preservesPartitioning: Boolean = false): RDD[U]
def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val sc = new SparkContext(sparkConf) //算子 -mapPartitons 計(jì)算每個(gè)分區(qū)的最大數(shù) val rdd = sc.makeRDD(List(1, 34, 36,345,2435,2342,62,35, 4),4) val mapParRdd = rdd.mapPartitions( iter => { List(iter.max).iterator } ) mapParRdd.foreach(println) sc.stop() }
運(yùn)行結(jié)果:
62 2435 34 345
將待處理的數(shù)據(jù)以分區(qū)為單位發(fā)送到計(jì)算節(jié)點(diǎn)上,這里的處理可以進(jìn)行任意的處理,哪怕是過(guò)濾數(shù)據(jù),在處理的同時(shí)可以獲取當(dāng)前分區(qū)的索引值。
def mapPartitionsWithIndex[U: ClassTag]( f: (Int, Iterator[T]) => Iterator[U], preservesPartitioning: Boolean = false): RDD[U]
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List("Hello Spark", "Hello Scala", "Word Count"),2) val mapRDD = rdd.flatMap(_.split(" ")) val mpwiRdd = mapRDD.mapPartitionsWithIndex( (index, datas) => { datas.map( num => { (index, num) } ) } ) mpwiRdd.collect().foreach(println) }
運(yùn)行結(jié)果:
(0,Hello) (0,Spark) (1,Hello) (1,Scala) (1,Word) (1,Count)
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List("Hello Spark", "Hello Scala", "Word Count"),2) val mapRDD = rdd.flatMap(_.split(" ")) val mpwiRdd = mapRDD.mapPartitionsWithIndex( (index, datas) => { if (index==0){ datas.map( num => { (index, num) } ) }else{ Nil.iterator } } ) mpwiRdd.collect().foreach(println)
運(yùn)行結(jié)果:
(0,Hello) (0,Spark)
將數(shù)據(jù)進(jìn)行扁平化之后在做映射處理,所以算子也稱(chēng)為扁平化映射
def flatMap[U: ClassTag](f: T => TraversableOnce[U]): RDD[U]
將每個(gè)單詞進(jìn)行扁平化映射
def main(args: Array[String]): Unit = { val sparkConf = new SparkConf().setMaster("local[*]").setAppName("Operator") val sc = new SparkContext(sparkConf) //算子 -map val rdd = sc.makeRDD(List("Hello Scala","Hello Spark"), 2) val FltRdd = rdd.flatMap( _.split(" ") ) FltRdd.foreach(println) sc.stop() }
運(yùn)行結(jié)果:
Hello Scala Hello Spark
glom的作用就是將一個(gè)分區(qū)的數(shù)據(jù)合并到一個(gè)array中。
def glom(): RDD[Array[T]]
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8, 9),2) val glomRdd = rdd.glom() glomRdd.collect().foreach(data=>println(data.mkString(","))) sc.stop() }
運(yùn)行結(jié)果:
1,2,3,4 5,6,7,8,9
將數(shù)據(jù)根據(jù)指定的規(guī)則進(jìn)行分組,分區(qū)默認(rèn)不變,單數(shù)數(shù)據(jù)會(huì)被打亂,我們成這樣的操作為shuffer,
def groupBy[K](f: T => K)(implicit kt: ClassTag[K]): RDD[(K, Iterable[T])]
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8,10),2) val groupByRDD = rdd.groupBy(_ % 2 == 0) groupByRDD.collect().foreach(println) sc.stop() }
運(yùn)行結(jié)果:
(false,CompactBuffer(1, 3, 5, 7)) (true,CompactBuffer(2, 4, 6, 8, 10))
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List("Hello","Tom","Timi","Scala","Spark")) val groupByRDD = rdd.groupBy(_.charAt(0)) groupByRDD.collect().foreach(println) sc.stop() }
運(yùn)行結(jié)果:
(T,CompactBuffer(Tom, Timi)) (H,CompactBuffer(Hello)) (S,CompactBuffer(Scala, Spark))
filter即過(guò)濾器的意思,所以filter算子的作用就是過(guò)濾的作用。filter將根據(jù)指定的規(guī)則進(jìn)行篩選過(guò)濾,符合條件的數(shù)據(jù)保留,不符合的數(shù)據(jù)丟棄,當(dāng)數(shù)據(jù)進(jìn)行篩選過(guò)濾之后,分區(qū)不變,但分區(qū)內(nèi)的數(shù)據(jù)可能不均衡,生產(chǎn)環(huán)境下,可能會(huì)出現(xiàn)數(shù)據(jù)傾斜。
def filter(f: T => Boolean): RDD[T]
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List(46,235,246,2346,3276,235,234,6234,6245,246,24,6246,235,26,265)) val filterRDD = rdd.filter(_ % 2 == 0) filterRDD.collect().foreach(println) sc.stop() }
運(yùn)行結(jié)果:
46 246 2346 3276 234 6234 246 24 6246 26
2.篩選單詞中包含H的
def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local[*]").setAppName("rdd") val sc = new SparkContext(conf) val rdd = sc.makeRDD(List("Hello","Horber","Hbeer","ersfgH","Scala","Hadoop","Zookeeper")) val filterRDD = rdd.filter(_.contains("H")) filterRDD.collect().foreach(println) sc.stop() }
運(yùn)行結(jié)果:
Hello Horber Hbeer ersfgH Hadoop
以上是“Spark RDD常用算子是什么類(lèi)型的”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。