您好,登錄后才能下訂單哦!
本篇文章為大家展示了hadoop中怎么設(shè)置map和reduce的數(shù)量,內(nèi)容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
1 map的數(shù)量
map的數(shù)量通常是由hadoop集群的DFS塊大小確定的,也就是輸入文件的總塊數(shù),正常的map數(shù)量的并行規(guī)模大致是每一個Node是10~100個,對于CPU消耗較小的作業(yè)可以設(shè)置Map數(shù)量為300個左右,但是由于hadoop的沒一個任務(wù)在初始化時需要一定的時間,因此比較合理的情況是每個map執(zhí)行的時間至少超過1分鐘。具體的數(shù)據(jù)分片是這樣的,InputFormat在默認情況下會根據(jù)hadoop集群的DFS塊大小進行分片,每一個分片會由一個map任務(wù)來進行處理,當然用戶還是可以通過參數(shù)mapred.min.split.size參數(shù)在作業(yè)提交客戶端進行自定義設(shè)置。還有一個重要參數(shù)就是mapred.map.tasks,這個參數(shù)設(shè)置的map數(shù)量僅僅是一個提示,只有當InputFormat 決定了map任務(wù)的個數(shù)比mapred.map.tasks值小時才起作用。同樣,Map任務(wù)的個數(shù)也能通過使用JobConf 的conf.setNumMapTasks(int num)方法來手動地設(shè)置。這個方法能夠用來增加map任務(wù)的個數(shù),但是不能設(shè)定任務(wù)的個數(shù)小于Hadoop系統(tǒng)通過分割輸入數(shù)據(jù)得到的值。當然為了提高集群的并發(fā)效率,可以設(shè)置一個默認的map數(shù)量,當用戶的map數(shù)量較小或者比本身自動分割的值還小時可以使用一個相對交大的默認值,從而提高整體hadoop集群的效率。
2 reduece的數(shù)量
reduce在運行時往往需要從相關(guān)map端復(fù)制數(shù)據(jù)到reduce節(jié)點來處理,因此相比于map任務(wù)。reduce節(jié)點資源是相對比較缺少的,同時相對運行較慢,正確的reduce任務(wù)的個數(shù)應(yīng)該是0.95或者1.75 *(節(jié)點數(shù) ×mapred.tasktracker.tasks.maximum參數(shù)值)。如果任務(wù)數(shù)是節(jié)點個數(shù)的0.95倍,那么所有的reduce任務(wù)能夠在 map任務(wù)的輸出傳輸結(jié)束后同時開始運行。如果任務(wù)數(shù)是節(jié)點個數(shù)的1.75倍,那么高速的節(jié)點會在完成他們第一批reduce任務(wù)計算之后開始計算第二批 reduce任務(wù),這樣的情況更有利于負載均衡。同時需要注意增加reduce的數(shù)量雖然會增加系統(tǒng)的資源開銷,但是可以改善負載勻衡,降低任務(wù)失敗帶來的負面影響。同樣,Reduce任務(wù)也能夠與 map任務(wù)一樣,通過設(shè)定JobConf 的conf.setNumReduceTasks(int num)方法來增加任務(wù)個數(shù)。
3 reduce數(shù)量為0
有些作業(yè)不需要進行歸約進行處理,那么就可以設(shè)置reduce的數(shù)量為0來進行處理,這種情況下用戶的作業(yè)運行速度相對較高,map的輸出會直接寫入到 SetOutputPath(path)設(shè)置的輸出目錄,而不是作為中間結(jié)果寫到本地。同時Hadoop框架在寫入文件系統(tǒng)前并不對之進行排序。
上述內(nèi)容就是hadoop中怎么設(shè)置map和reduce的數(shù)量,你們學(xué)到知識或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識儲備,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。