溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些

發(fā)布時(shí)間:2021-12-09 14:34:39 來源:億速云 閱讀:212 作者:小新 欄目:大數(shù)據(jù)

這篇文章將為大家詳細(xì)講解有關(guān)MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些,小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

隨著存儲(chǔ)數(shù)據(jù)信息量的飛速增長,越來越多的人開始關(guān)注存儲(chǔ)數(shù)據(jù)的縮減方法。數(shù)據(jù)壓縮、單實(shí)例存儲(chǔ)和重復(fù)數(shù)據(jù)刪除等都是經(jīng)常使用的存儲(chǔ)數(shù)據(jù)縮減技術(shù)。

重復(fù)數(shù)據(jù)刪除往往是指消除冗余子文件。不同于壓縮,重復(fù)數(shù)據(jù)刪除對(duì)于數(shù)據(jù)本身并沒有改變,只是消除了相同的數(shù)據(jù)占用的存儲(chǔ)容量。重復(fù)數(shù)據(jù)刪除在減少存儲(chǔ)、降低網(wǎng)絡(luò)帶寬方面有著顯著的優(yōu)勢,并對(duì)擴(kuò)展性有所幫助。

舉個(gè)簡單的例子:在專門為電信運(yùn)營商定制的呼叫詳單去重應(yīng)用程序中,我們就可以看到刪除重復(fù)數(shù)據(jù)的影子。同樣的,對(duì)于包含相同數(shù)據(jù)包的通信網(wǎng)絡(luò),我們可以使用這種技術(shù)來進(jìn)行優(yōu)化。

在存儲(chǔ)架構(gòu)中,刪除重復(fù)數(shù)據(jù)的一些常用的方法包括:哈希、二進(jìn)制比較和增量差分。在HadoopSphere這篇文章中,將專注于如何利用MapReduce和HDFS來消除重復(fù)的數(shù)據(jù)。(下面列出的方法中包括一些學(xué)者的實(shí)驗(yàn)方法,因此把術(shù)語定義為策略比較合適)。

策略1:只使用HDFS和MapReduce

Owen O’Malley在一個(gè)論壇的帖子中建議使用以下方法:

讓你的歷史數(shù)據(jù)按照MD5值進(jìn)行排序。  運(yùn)行一個(gè)MapReduce的作業(yè),將你的新數(shù)據(jù)按照MD5進(jìn)行排序。需要注意的是:你要做所有數(shù)據(jù)的整體排序,但因?yàn)镸D5是在整個(gè)密鑰空間中是均勻分布的,排序就變得很容易。

基本上,你挑選一個(gè)reduce作業(yè)的數(shù)量(如256),然后取MD5值的前N位數(shù)據(jù)來進(jìn)行你的reduce作業(yè)。由于這項(xiàng)作業(yè)只處理你的新數(shù)據(jù),這是非??斓?。  接下來你需要進(jìn)行一個(gè)map-side  join,每一個(gè)合并的輸入分塊都包含一個(gè)MD5值的范圍。RecordReader讀取歷史的和新的數(shù)據(jù)集,并將它們按照一定方式合并。(你可以使用map-side  join庫)。你的map將新數(shù)據(jù)和舊數(shù)據(jù)合并。這里僅僅是一個(gè)map作業(yè),所以這也非常快。

當(dāng)然,如果新的數(shù)據(jù)足夠小,你可以在每一個(gè)map作業(yè)中將其讀入,并且保持新記錄(在RAM中做了排序)在合適的數(shù)量范圍內(nèi),這樣就可以在RAM中執(zhí)行合并。這可以讓你避免為新數(shù)據(jù)進(jìn)行排序的步驟。類似于這種合并的優(yōu)化,正是Pig和Hive中對(duì)開發(fā)人員隱藏的大量細(xì)節(jié)部分。

策略2:使用HDFS和Hbase

在一篇名為“工程云系統(tǒng)中一種新穎的刪除重復(fù)數(shù)據(jù)技術(shù)”的論文中,Zhe Sun, Jun Shen, Jianming  Young共同提出了一種使用HDFS和Hbase的方法,內(nèi)容如下:

使用MD5和SHA-1哈希函數(shù)計(jì)算文件的哈希值,然后將值傳遞給Hbase

將新的哈希值與現(xiàn)有的值域比較,如果新值已經(jīng)存在于Hbase去重復(fù)表中,HDFS會(huì)檢查鏈接的數(shù)量,如果數(shù)量不為零時(shí),哈希值對(duì)應(yīng)的計(jì)數(shù)器將增加1。如果數(shù)量是零或哈希值在之前的去重復(fù)表中不存在,HDFS會(huì)要求客戶端上傳文件并更新文件的邏輯路徑。

HDFS將存儲(chǔ)由用戶上傳的源文件,以及相應(yīng)的鏈接文件,這些鏈接文件是自動(dòng)生成的。鏈接文件中記錄了源文件的哈希值和源文件的邏輯路徑。

要注意使用這種方法中的一些關(guān)鍵點(diǎn):

文件級(jí)的重復(fù)數(shù)據(jù)刪除需要保持索引數(shù)量盡可能小,這樣可以有高效的查找效率。

MD5和SHA-1需要結(jié)合使用從而避免偶發(fā)性的碰撞。

策略3:使用HDFS,MapReduce和存儲(chǔ)控制器

MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些

由Netapp的工程師AshishKathpal、GauravMakkar以及Mathew  John三人聯(lián)合,在一篇名為“在后期處理重復(fù)數(shù)據(jù)刪除的分布式重復(fù)檢測方式”的文章中,提出通過使用HadoopMapReduce的重復(fù)檢測機(jī)制來替代Netapp原有的重復(fù)檢測環(huán)節(jié),文中提到的基于重復(fù)檢測的Hadoop工作流包含如下幾個(gè)環(huán)節(jié):

將數(shù)據(jù)指紋(Fingerprint)由存儲(chǔ)控制器遷移到HDFS

生成數(shù)據(jù)指紋數(shù)據(jù)庫,并在HDFS上***存儲(chǔ)該數(shù)據(jù)庫

使用MapReduce從數(shù)據(jù)指紋記錄集中篩選出重復(fù)記錄,并將去重復(fù)后的數(shù)據(jù)指紋表保存回存儲(chǔ)控制器。

數(shù)據(jù)指紋是指存儲(chǔ)系統(tǒng)中文件塊經(jīng)過計(jì)算后的哈希索引,通常來說數(shù)據(jù)指紋要比它代表的數(shù)據(jù)塊體積小的多,這樣就可以減少分布式檢測時(shí)網(wǎng)絡(luò)中的數(shù)據(jù)傳輸量。

策略4:使用Streaming,HDFS,MapReduce

對(duì)于Hadoop和Streaming的應(yīng)用集成,基本上包含兩種可能的場景。以IBM Infosphere  Streams和BigInsights集成為例,場景應(yīng)該是:

1. Streams到Hadoop的流程:通過控制流程,將Hadoop  MapReduce模塊作為數(shù)據(jù)流分析的一部分,對(duì)于Streams的操作需要對(duì)更新的數(shù)據(jù)進(jìn)行檢查并去重,并可以驗(yàn)證MapReduce模型的正確性。

眾所周知,在數(shù)據(jù)攝入的時(shí)候?qū)?shù)據(jù)進(jìn)行去重復(fù)是最有效的,因此在Infosphere  Streams中對(duì)于某個(gè)特定時(shí)間段或者數(shù)量的記錄會(huì)進(jìn)行去重復(fù),或者識(shí)別出記錄的增量部分。接著,經(jīng)過去重的數(shù)據(jù)將會(huì)發(fā)送給Hadoop  BigInsights用于新模型的建立。

MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些

2. Hadoop到Streams的流程:在這種方式中,Hadoop  MapReduce用于移除歷史數(shù)據(jù)中的重復(fù)數(shù)據(jù),之后MapReduce模型將會(huì)更新。MapReduce模型作為Streams中的一部分被集成,針對(duì)mid-stream配置一個(gè)操作符(operator),從而對(duì)傳入的數(shù)據(jù)進(jìn)行處理。

策略5:結(jié)合塊技術(shù)使用MapReduce

在萊比錫大學(xué)開發(fā)的一個(gè)原型工具Dedoop(Deduplication with  Hadoop)中,MapReduce應(yīng)用于大數(shù)據(jù)中的實(shí)體解析處理,到目前為止,這個(gè)工具囊括了MapReduce在重復(fù)數(shù)據(jù)刪除技術(shù)中最為成熟的應(yīng)用方式。

MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些

基于實(shí)體匹配的分塊是指將輸入數(shù)據(jù)按照類似的數(shù)據(jù)進(jìn)行語義分塊,并且對(duì)于相同塊的實(shí)體進(jìn)行限定。

實(shí)體解析處理分成兩個(gè)MapReduce作業(yè):分析作業(yè)主要用于統(tǒng)計(jì)記錄出現(xiàn)頻率,匹配作業(yè)用于處理負(fù)載均衡以及近似度計(jì)算。另外,匹配作業(yè)采用“貪婪模式”的負(fù)載均衡調(diào)控,也就是說匹配任務(wù)按照任務(wù)處理數(shù)據(jù)大小的降序排列,并做出最小負(fù)載的Reduce作業(yè)分配。

Dedoop還采用了有效的技術(shù)來避免多余的配對(duì)比較。它要求MR程序必須明確定義出哪個(gè)Reduce任務(wù)在處理哪個(gè)配對(duì)比較,這樣就無需在多個(gè)節(jié)點(diǎn)上進(jìn)行相同的配對(duì)比較。

關(guān)于“MapReduce+HDFS海量數(shù)據(jù)去重的策略有哪些”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),請把它分享出去讓更多的人看到。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI