您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“Hadoop的設(shè)計(jì)特點(diǎn)有哪些”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“Hadoop的設(shè)計(jì)特點(diǎn)有哪些”吧!
Hadoop歷史
雛形開始于2002年的Apache的Nutch,Nutch是一個(gè)開源Java 實(shí)現(xiàn)的搜索引擎。它提供了我們運(yùn)行自己的搜索引擎所需的全部工具。包括全文搜索和Web爬蟲。
隨后在2003年Google發(fā)表了一篇技術(shù)學(xué)術(shù)論文谷歌文件系統(tǒng)(GFS)。GFS也就是google File System,google公司為了存儲海量搜索數(shù)據(jù)而設(shè)計(jì)的專用文件系統(tǒng)。
2004年Nutch創(chuàng)始人Doug Cutting基于Google的GFS論文實(shí)現(xiàn)了分布式文件存儲系統(tǒng)名為NDFS。
2004年Google又發(fā)表了一篇技術(shù)學(xué)術(shù)論文MapReduce。MapReduce是一種編程模型,用于大規(guī)模數(shù)據(jù)集(大于1TB)的并行分析運(yùn)算。
2005年Doug Cutting又基于MapReduce,在Nutch搜索引擎實(shí)現(xiàn)了該功能。
2006年,Yahoo雇用了Doug Cutting,Doug Cutting將NDFS和MapReduce升級命名為Hadoop,Yahoo開建了一個(gè)獨(dú)立的團(tuán)隊(duì)給Goug Cutting專門研究發(fā)展Hadoop。
不得不說Google和Yahoo對Hadoop的貢獻(xiàn)功不可沒。
Hadoop核心
Hadoop的核心就是HDFS和MapReduce,而兩者只是理論基礎(chǔ),不是具體可使用的高級應(yīng)用,Hadoop旗下有很多經(jīng)典子項(xiàng)目,比如HBase、Hive等,這些都是基于HDFS和MapReduce發(fā)展出來的。要想了解Hadoop,就必須知道HDFS和MapReduce是什么。
HDFS
HDFS(Hadoop Distributed File System,Hadoop分布式文件系統(tǒng)),它是一個(gè)高度容錯(cuò)性的系統(tǒng),適合部署在廉價(jià)的機(jī)器上。HDFS能提供高吞吐量的數(shù)據(jù)訪問,適合那些有著超大數(shù)據(jù)集(large data set)的應(yīng)用程序。
HDFS的設(shè)計(jì)特點(diǎn)是:
1、大數(shù)據(jù)文件,非常適合上T級別的大文件或者一堆大數(shù)據(jù)文件的存儲,如果文件只有幾個(gè)G甚至更小就沒啥意思了。
2、文件分塊存儲,HDFS會將一個(gè)完整的大文件平均分塊存儲到不同計(jì)算器上,它的意義在于讀取文件時(shí)可以同時(shí)從多個(gè)主機(jī)取不同區(qū)塊的文件,多主機(jī)讀取比單主機(jī)讀取效率要高得多得都。
3、流式數(shù)據(jù)訪問,一次寫入多次讀寫,這種模式跟傳統(tǒng)文件不同,它不支持動態(tài)改變文件內(nèi)容,而是要求讓文件一次寫入就不做變化,要變化也只能在文件末添加內(nèi)容。
4、廉價(jià)硬件,HDFS可以應(yīng)用在普通PC機(jī)上,這種機(jī)制能夠讓給一些公司用幾十臺廉價(jià)的計(jì)算機(jī)就可以撐起一個(gè)大數(shù)據(jù)集群。
5、硬件故障,HDFS認(rèn)為所有計(jì)算機(jī)都可能會出問題,為了防止某個(gè)主機(jī)失效讀取不到該主機(jī)的塊文件,它將同一個(gè)文件塊副本分配到其它某幾個(gè)主機(jī)上,如果其中一臺主機(jī)失效,可以迅速找另一塊副本取文件。
HDFS的關(guān)鍵元素:
Block:將一個(gè)文件進(jìn)行分塊,通常是64M。
NameNode:保存整個(gè)文件系統(tǒng)的目錄信息、文件信息及分塊信息,這是由唯一一臺主機(jī)專門保存,當(dāng)然這臺主機(jī)如果出錯(cuò),NameNode就失效了。在Hadoop2.*開始支持activity-standy模式----如果主NameNode失效,啟動備用主機(jī)運(yùn)行NameNode。
DataNode:分布在廉價(jià)的計(jì)算機(jī)上,用于存儲Block塊文件。
MapReduce
通俗說MapReduce是一套從海量·源數(shù)據(jù)提取分析元素最后返回結(jié)果集的編程模型,將文件分布式存儲到硬盤是第一步,而從海量數(shù)據(jù)中提取分析我們需要的內(nèi)容就是MapReduce做的事了。
下面以一個(gè)計(jì)算海量數(shù)據(jù)最大值為例:一個(gè)銀行有上億儲戶,銀行希望找到存儲金額最高的金額是多少,按照傳統(tǒng)的計(jì)算方式,我們會這樣:
Java代碼
Long moneys[] ...
Long max = 0L;
for(int i=0;i<moneys.length;i++){
if(moneys[i]>max){
max = moneys[i];
}
}
如果計(jì)算的數(shù)組長度少的話,這樣實(shí)現(xiàn)是不會有問題的,還是面對海量數(shù)據(jù)的時(shí)候就會有問題。
MapReduce會這樣做:首先數(shù)字是分布存儲在不同塊中的,以某幾個(gè)塊為一個(gè)Map,計(jì)算出Map中最大的值,然后將每個(gè)Map中的最大值做Reduce操作,Reduce再取最大值給用戶。
MapReduce的基本原理就是:將大的數(shù)據(jù)分析分成小塊逐個(gè)分析,最后再將提取出來的數(shù)據(jù)匯總分析,最終獲得我們想要的內(nèi)容。當(dāng)然怎么分塊分析,怎么做Reduce操作非常復(fù)雜,Hadoop已經(jīng)提供了數(shù)據(jù)分析的實(shí)現(xiàn),我們只需要編寫簡單的需求命令即可達(dá)成我們想要的數(shù)據(jù)。
到此,相信大家對“Hadoop的設(shè)計(jì)特點(diǎn)有哪些”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。