溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

MapReduce 中的兩表 join 幾種方案簡介

發(fā)布時間:2020-07-27 19:08:14 來源:網(wǎng)絡(luò) 閱讀:419 作者:惡魔蘇醒ing 欄目:大數(shù)據(jù)

1. 概述

在傳統(tǒng)數(shù)據(jù)庫(如:MYSQL)中,JOIN操作是非常常見且非常耗時的。而在HADOOP中進行JOIN操作,同樣常見且耗時,由于Hadoop的獨特設(shè)計思想,當進行JOIN操作時,有一些特殊的技巧。

本文首先介紹了Hadoop上通常的JOIN實現(xiàn)方法,然后給出了幾種針對不同輸入數(shù)據(jù)集的優(yōu)化方法。

2. 常見的join方法介紹

假設(shè)要進行join的數(shù)據(jù)分別來自File1和File2.

2.1 reduce side join

reduce side join是一種最簡單的join方式,其主要思想如下:

在map階段,map函數(shù)同時讀取兩個文件File1和File2,為了區(qū)分兩種來源的key/value數(shù)據(jù)對,對每條數(shù)據(jù)打一個標簽(tag),比如:tag=0表示來自文件File1,tag=2表示來自文件File2。即:map階段的主要任務(wù)是對不同文件中的數(shù)據(jù)打標簽。

在reduce階段,reduce函數(shù)獲取key相同的來自File1和File2文件的value list, 然后對于同一個key,對File1和File2中的數(shù)據(jù)進行join(笛卡爾乘積)。即:reduce階段進行實際的連接操作。

REF:hadoop join之reduce side join

http://blog.csdn.net/huashetianzu/article/details/7819244

2.2 map side join

之所以存在reduce side join,是因為在map階段不能獲取所有需要的join字段,即:同一個key對應(yīng)的字段可能位于不同map中。Reduce side join是非常低效的,因為shuffle階段要進行大量的數(shù)據(jù)傳輸。

Map side join是針對以下場景進行的優(yōu)化:兩個待連接表中,有一個表非常大,而另一個表非常小,以至于小表可以直接存放到內(nèi)存中。這樣,我們可以將小表復(fù)制多份,讓每個map task內(nèi)存中存在一份(比如存放到hash table中),然后只掃描大表:對于大表中的每一條記錄key/value,在hash table中查找是否有相同的key的記錄,如果有,則連接后輸出即可。

為了支持文件的復(fù)制,Hadoop提供了一個類DistributedCache,使用該類的方法如下:

(1)用戶使用靜態(tài)方法DistributedCache.addCacheFile()指定要復(fù)制的文件,它的參數(shù)是文件的URI(如果是HDFS上的文件,可以這樣:hdfs://namenode:9000/home/XXX/file,其中9000是自己配置的NameNode端口號)。JobTracker在作業(yè)啟動之前會獲取這個URI列表,并將相應(yīng)的文件拷貝到各個TaskTracker的本地磁盤上。(2)用戶使用DistributedCache.getLocalCacheFiles()方法獲取文件目錄,并使用標準的文件讀寫API讀取相應(yīng)的文件。

REF:hadoop join之map side join

http://blog.csdn.net/huashetianzu/article/details/7821674

2.3 Semi Join

Semi Join也叫半連接,是從分布式數(shù)據(jù)庫中借鑒過來的方法。它的產(chǎn)生動機是:對于reduce side join,跨機器的數(shù)據(jù)傳輸量非常大,這成了join操作的一個瓶頸,如果能夠在map端過濾掉不會參加join操作的數(shù)據(jù),則可以大大節(jié)省網(wǎng)絡(luò)IO。

實現(xiàn)方法很簡單:選取一個小表,假設(shè)是File1,將其參與join的key抽取出來,保存到文件File3中,F(xiàn)ile3文件一般很小,可以放到內(nèi)存中。在map階段,使用DistributedCache將File3復(fù)制到各個TaskTracker上,然后將File2中不在File3中的key對應(yīng)的記錄過濾掉,剩下的reduce階段的工作與reduce side join相同。

更多關(guān)于半連接的介紹,可參考:半連接介紹:http://wenku.baidu.com/view/ae7442db7f1922791688e877.html

REF:hadoop join之semi join

http://blog.csdn.net/huashetianzu/article/details/7823326

2.4 reduce side join + BloomFilter

在某些情況下,SemiJoin抽取出來的小表的key集合在內(nèi)存中仍然存放不下,這時候可以使用BloomFiler以節(jié)省空間。

BloomFilter最常見的作用是:判斷某個元素是否在一個集合里面。它最重要的兩個方法是:add() 和contains()。最大的特點是不會存在 false negative,即:如果contains()返回false,則該元素一定不在集合中,但會存在一定的 false positive,即:如果contains()返回true,則該元素一定可能在集合中。

因而可將小表中的key保存到BloomFilter中,在map階段過濾大表,可能有一些不在小表中的記錄沒有過濾掉(但是在小表中的記錄一定不會過濾掉),這沒關(guān)系,只不過增加了少量的網(wǎng)絡(luò)IO而已。

更多關(guān)于BloomFilter的介紹,可參考:http://blog.csdn.net/jiaomeng/article/details/1495500

3. 二次排序

在Hadoop中,默認情況下是按照key進行排序,如果要按照value進行排序怎么辦?即:對于同一個key,reduce函數(shù)接收到的value list是按照value排序的。這種應(yīng)用需求在join操作中很常見,比如,希望相同的key中,小表對應(yīng)的value排在前面。

有兩種方法進行二次排序,分別為:buffer and in memory sort和 value-to-key conversion。

對于buffer and in memory sort,主要思想是:在reduce()函數(shù)中,將某個key對應(yīng)的所有value保存下來,然后進行排序。 這種方法最大的缺點是:可能會造成out of memory。

對于value-to-key conversion,主要思想是:將key和部分value拼接成一個組合key(實現(xiàn)WritableComparable接口或者調(diào)用setSortComparatorClass函數(shù)),這樣reduce獲取的結(jié)果便是先按key排序,后按value排序的結(jié)果,需要注意的是,用戶需要自己實現(xiàn)Paritioner,以便只按照key進行數(shù)據(jù)劃分。Hadoop顯式的支持二次排序,在Configuration類中有個setGroupingComparatorClass()方法,可用于設(shè)置排序group的key值,具體參考:http://www.cnblogs.com/xuxm2007/archive/2011/09/03/2165805.html

4. 后記

最近一直在找工作,由于簡歷上寫了熟悉Hadoop,所以幾乎每個面試官都會問一些Hadoop相關(guān)的東西,而 Hadoop上Join的實現(xiàn)就成了一道必問的問題,而極個別公司還會涉及到DistributedCache原理以及怎樣利用DistributedCache進行Join操作。為了更好地應(yīng)對這些面試官,特整理此文章。


5. 參考資料

(1) 書籍《Data-Intensive Text Processing with MapReduce》 page 60~67 Jimmy Lin and Chris Dyer,University of Maryland, College Park

(2) 書籍《Hadoop In Action》page 107~131

(3) mapreduce的二次排序 SecondarySort:http://www.cnblogs.com/xuxm2007/archive/2011/09/03/2165805.html

(4) 半連接介紹:http://wenku.baidu.com/view/ae7442db7f1922791688e877.html

(5) BloomFilter介紹:http://blog.csdn.net/jiaomeng/article/details/1495500

(6)本文來自:http://dongxicheng.org/mapreduce/hadoop-join-two-tables/


向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI