巧用MapReduce+HDFS儿子,海量數(shù)據(jù)去重的五種方法

隨著存儲(chǔ)數(shù)據(jù)信息量的飛速增長麦箍,越來越多的人開始關(guān)注存儲(chǔ)數(shù)據(jù)的縮減方法漓藕。數(shù)據(jù)壓縮、單實(shí)例存儲(chǔ)和重復(fù)數(shù)據(jù)刪除等都是經(jīng)常使用的存儲(chǔ)數(shù)據(jù)縮減技術(shù)挟裂。

重復(fù)數(shù)據(jù)刪除往往是指消除冗余子文件享钞。不同于壓縮,重復(fù)數(shù)據(jù)刪除對于數(shù)據(jù)本身并沒有改變诀蓉,只是消除了相同的數(shù)據(jù)占用的存儲(chǔ)容量栗竖。重復(fù)數(shù)據(jù)刪除在減少存儲(chǔ)、降低網(wǎng)絡(luò)帶寬方面有著顯著的優(yōu)勢渠啤,并對擴(kuò)展性有所幫助狐肢。

舉個(gè)簡單的例子:在專門為電信運(yùn)營商定制的呼叫詳單去重應(yīng)用程序中,我們就可以看到刪除重復(fù)數(shù)據(jù)的影子沥曹。同樣的份名,對于包含相同數(shù)據(jù)包的通信網(wǎng)絡(luò)碟联,我們可以使用這種技術(shù)來進(jìn)行優(yōu)化。

在存儲(chǔ)架構(gòu)中僵腺,刪除重復(fù)數(shù)據(jù)的一些常用的方法包括:哈希鲤孵、二進(jìn)制比較和增量差分。在HadoopSphere這篇文章中辰如,將專注于如何利用MapReduce和HDFS來消除重復(fù)的數(shù)據(jù)普监。(下面列出的方法中包括一些學(xué)者的實(shí)驗(yàn)方法,因此把術(shù)語定義為策略比較合適)琉兜。

策略1:只使用HDFS和MapReduce

Owen O’Malley在一個(gè)論壇的帖子中建議使用以下方法:

讓你的歷史數(shù)據(jù)按照MD5值進(jìn)行排序凯正。 運(yùn)行一個(gè)MapReduce的作業(yè),將你的新數(shù)據(jù)按照MD5進(jìn)行排序豌蟋。需要注意的是:你要做所有數(shù)據(jù)的整體排序漆际,但因?yàn)镸D5是在整個(gè)密鑰空間中是均勻分布的,排序就變得很容易夺饲。

基本上奸汇,你挑選一個(gè)reduce作業(yè)的數(shù)量(如256),然后取MD5值的前N位數(shù)據(jù)來進(jìn)行你的reduce作業(yè)往声。由于這項(xiàng)作業(yè)只處理你的新數(shù)據(jù)擂找,這是非常快的浩销。 接下來你需要進(jìn)行一個(gè)map-side join贯涎,每一個(gè)合并的輸入分塊都包含一個(gè)MD5值的范圍。RecordReader讀取歷史的和新的數(shù)據(jù)集慢洋,并將它們按照一定方式合并塘雳。(你可以使用map-side join庫)。你的map將新數(shù)據(jù)和舊數(shù)據(jù)合并普筹。這里僅僅是一個(gè)map作業(yè)败明,所以這也非常快太防。

當(dāng)然妻顶,如果新的數(shù)據(jù)足夠小,你可以在每一個(gè)map作業(yè)中將其讀入蜒车,并且保持新記錄(在RAM中做了排序)在合適的數(shù)量范圍內(nèi)讳嘱,這樣就可以在RAM中執(zhí)行合并。這可以讓你避免為新數(shù)據(jù)進(jìn)行排序的步驟酿愧。類似于這種合并的優(yōu)化沥潭,正是Pig和Hive中對開發(fā)人員隱藏的大量細(xì)節(jié)部分。

策略2:使用HDFS和Hbase

在一篇名為“工程云系統(tǒng)中一種新穎的刪除重復(fù)數(shù)據(jù)技術(shù)”的論文中嬉挡,Zhe Sun, Jun Shen, Jianming Young共同提出了一種使用HDFS和Hbase的方法钝鸽,內(nèi)容如下:

使用MD5和SHA-1哈希函數(shù)計(jì)算文件的哈希值呼渣,然后將值傳遞給Hbase

將新的哈希值與現(xiàn)有的值域比較,如果新值已經(jīng)存在于Hbase去重復(fù)表中寞埠,HDFS會(huì)檢查鏈接的數(shù)量,如果數(shù)量不為零時(shí)焊夸,哈希值對應(yīng)的計(jì)數(shù)器將增加1仁连。如果數(shù)量是零或哈希值在之前的去重復(fù)表中不存在,HDFS會(huì)要求客戶端上傳文件并更新文件的邏輯路徑阱穗。

HDFS將存儲(chǔ)由用戶上傳的源文件饭冬,以及相應(yīng)的鏈接文件,這些鏈接文件是自動(dòng)生成的揪阶。鏈接文件中記錄了源文件的哈希值和源文件的邏輯路徑昌抠。

要注意使用這種方法中的一些關(guān)鍵點(diǎn)

文件級的重復(fù)數(shù)據(jù)刪除需要保持索引數(shù)量盡可能小,這樣可以有高效的查找效率鲁僚。

MD5和SHA-1需要結(jié)合使用從而避免偶發(fā)性的碰撞炊苫。

策略3:使用HDFS,MapReduce和存儲(chǔ)控制器

由Netapp的工程師AshishKathpal冰沙、GauravMakkar以及Mathew John三人聯(lián)合侨艾,在一篇名為“在后期處理重復(fù)數(shù)據(jù)刪除的分布式重復(fù)檢測方式”的文章中,提出通過使用HadoopMapReduce的重復(fù)檢測機(jī)制來替代Netapp原有的重復(fù)檢測環(huán)節(jié)拓挥,文中提到的基于重復(fù)檢測的Hadoop工作流包含如下幾個(gè)環(huán)節(jié):

將數(shù)據(jù)指紋(Fingerprint)由存儲(chǔ)控制器遷移到HDFS

生成數(shù)據(jù)指紋數(shù)據(jù)庫唠梨,并在HDFS上永久存儲(chǔ)該數(shù)據(jù)庫

使用MapReduce從數(shù)據(jù)指紋記錄集中篩選出重復(fù)記錄,并將去重復(fù)后的數(shù)據(jù)指紋表保存回存儲(chǔ)控制器侥啤。

數(shù)據(jù)指紋是指存儲(chǔ)系統(tǒng)中文件塊經(jīng)過計(jì)算后的哈希索引当叭,通常來說數(shù)據(jù)指紋要比它代表的數(shù)據(jù)塊體積小的多,這樣就可以減少分布式檢測時(shí)網(wǎng)絡(luò)中的數(shù)據(jù)傳輸量盖灸。

策略4:使用Streaming蚁鳖,HDFS,MapReduce

對于Hadoop和Streaming的應(yīng)用集成赁炎,基本上包含兩種可能的場景才睹。以IBM Infosphere Streams和BigInsights集成為例,場景應(yīng)該是:

1. Streams到Hadoop的流程:通過控制流程甘邀,將Hadoop MapReduce模塊作為數(shù)據(jù)流分析的一部分琅攘,對于Streams的操作需要對更新的數(shù)據(jù)進(jìn)行檢查并去重,并可以驗(yàn)證MapReduce模型的正確性松邪。

眾所周知坞琴,在數(shù)據(jù)攝入的時(shí)候?qū)?shù)據(jù)進(jìn)行去重復(fù)是最有效的,因此在Infosphere Streams中對于某個(gè)特定時(shí)間段或者數(shù)量的記錄會(huì)進(jìn)行去重復(fù)逗抑,或者識別出記錄的增量部分剧辐。接著寒亥,經(jīng)過去重的數(shù)據(jù)將會(huì)發(fā)送給Hadoop BigInsights用于新模型的建立。

2. Hadoop到Streams的流程:在這種方式中荧关,Hadoop MapReduce用于移除歷史數(shù)據(jù)中的重復(fù)數(shù)據(jù)溉奕,之后MapReduce模型將會(huì)更新。MapReduce模型作為Streams中的一部分被集成忍啤,針對mid-stream配置一個(gè)操作符(operator)加勤,從而對傳入的數(shù)據(jù)進(jìn)行處理。

策略5:結(jié)合塊技術(shù)使用MapReduce

在萊比錫大學(xué)開發(fā)的一個(gè)原型工具Dedoop(Deduplication with Hadoop)中同波,MapReduce應(yīng)用于大數(shù)據(jù)中的實(shí)體解析處理鳄梅,到目前為止,這個(gè)工具囊括了MapReduce在重復(fù)數(shù)據(jù)刪除技術(shù)中最為成熟的應(yīng)用方式未檩。

基于實(shí)體匹配的分塊是指將輸入數(shù)據(jù)按照類似的數(shù)據(jù)進(jìn)行語義分塊戴尸,并且對于相同塊的實(shí)體進(jìn)行限定。

實(shí)體解析處理分成兩個(gè)MapReduce作業(yè):分析作業(yè)主要用于統(tǒng)計(jì)記錄出現(xiàn)頻率冤狡,匹配作業(yè)用于處理負(fù)載均衡以及近似度計(jì)算孙蒙。另外,匹配作業(yè)采用“貪婪模式”的負(fù)載均衡調(diào)控悲雳,也就是說匹配任務(wù)按照任務(wù)處理數(shù)據(jù)大小的降序排列马篮,并做出最小負(fù)載的Reduce作業(yè)分配。

Dedoop還采用了有效的技術(shù)來避免多余的配對比較怜奖。它要求MR程序必須明確定義出哪個(gè)Reduce任務(wù)在處理哪個(gè)配對比較浑测,這樣就無需在多個(gè)節(jié)點(diǎn)上進(jìn)行相同的配對比較。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末歪玲,一起剝皮案震驚了整個(gè)濱河市迁央,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌滥崩,老刑警劉巖岖圈,帶你破解...
    沈念sama閱讀 222,000評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異钙皮,居然都是意外死亡蜂科,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,745評論 3 399
  • 文/潘曉璐 我一進(jìn)店門短条,熙熙樓的掌柜王于貴愁眉苦臉地迎上來导匣,“玉大人,你說我怎么就攤上這事茸时」倍ǎ” “怎么了?”我有些...
    開封第一講書人閱讀 168,561評論 0 360
  • 文/不壞的土叔 我叫張陵可都,是天一觀的道長缓待。 經(jīng)常有香客問我蚓耽,道長,這世上最難降的妖魔是什么旋炒? 我笑而不...
    開封第一講書人閱讀 59,782評論 1 298
  • 正文 為了忘掉前任步悠,我火速辦了婚禮,結(jié)果婚禮上瘫镇,老公的妹妹穿的比我還像新娘鼎兽。我一直安慰自己,他們只是感情好汇四,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,798評論 6 397
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著踢涌,像睡著了一般通孽。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上睁壁,一...
    開封第一講書人閱讀 52,394評論 1 310
  • 那天背苦,我揣著相機(jī)與錄音,去河邊找鬼潘明。 笑死行剂,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的钳降。 我是一名探鬼主播厚宰,決...
    沈念sama閱讀 40,952評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼遂填!你這毒婦竟也來了铲觉?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,852評論 0 276
  • 序言:老撾萬榮一對情侶失蹤吓坚,失蹤者是張志新(化名)和其女友劉穎撵幽,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體礁击,經(jīng)...
    沈念sama閱讀 46,409評論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡盐杂,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,483評論 3 341
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了哆窿。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片链烈。...
    茶點(diǎn)故事閱讀 40,615評論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖挚躯,靈堂內(nèi)的尸體忽然破棺而出测垛,到底是詐尸還是另有隱情,我是刑警寧澤秧均,帶...
    沈念sama閱讀 36,303評論 5 350
  • 正文 年R本政府宣布食侮,位于F島的核電站号涯,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏锯七。R本人自食惡果不足惜链快,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,979評論 3 334
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望眉尸。 院中可真熱鬧域蜗,春花似錦、人聲如沸噪猾。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,470評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽袱蜡。三九已至丝蹭,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間坪蚁,已是汗流浹背奔穿。 一陣腳步聲響...
    開封第一講書人閱讀 33,571評論 1 272
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留敏晤,地道東北人贱田。 一個(gè)月前我還...
    沈念sama閱讀 49,041評論 3 377
  • 正文 我出身青樓,卻偏偏與公主長得像嘴脾,于是被迫代替她去往敵國和親男摧。 傳聞我的和親對象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,630評論 2 359

推薦閱讀更多精彩內(nèi)容