溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

老司機(jī)告訴你大數(shù)據(jù)開發(fā):學(xué)Hadoop好還是Spark好?

發(fā)布時(shí)間:2020-07-25 21:34:28 來源:網(wǎng)絡(luò) 閱讀:300 作者:白金大數(shù)據(jù) 欄目:大數(shù)據(jù)

相信看這篇文章的你們,都和我一樣對Hadoop和Apache Spark的選擇有一定的疑惑,今天查了不少資料,我們就來談?wù)勥@兩種 平臺的比較與選擇吧,看看對于工作和發(fā)展,到底哪個(gè)更好。

一、Hadoop與Spark

1.Spark

Spark是一個(gè)用來實(shí)現(xiàn)快速而通用的集群計(jì)算的平臺。速度方面,Spark擴(kuò)展了廣泛使用的MapReduce計(jì)算模型,而且高效地支持更多計(jì)算模式,包括交互式查詢和流處理。

Spark項(xiàng)目包含多個(gè)緊密集成的組件。Spark的核心是一個(gè)對由很多計(jì)算任務(wù)組成的、運(yùn)行在多個(gè)工作機(jī)器或者是一個(gè)計(jì)算集群上的應(yīng)用進(jìn)行調(diào)度、分發(fā)以及監(jiān)控的計(jì)算引擎。

2.Hadoop

Hadoop是一個(gè)由Apache基金會所開發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)。用戶可以在不了解分布式底層細(xì)節(jié)的情況下,開發(fā)分布式程序。充分利用集群的威力進(jìn)行高速運(yùn)算和存儲。Hadoop的框架最核心的設(shè)計(jì)就是:HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲,則MapReduce為海量的數(shù)據(jù)提供了計(jì)算。

?大數(shù)據(jù)是未來的發(fā)展方向,正在挑戰(zhàn)我們的分析能力及對世界的認(rèn)知方式,因此,我們與時(shí)俱進(jìn),迎接變化,并不斷的成長,大數(shù)據(jù)學(xué)習(xí)扣扣群606+859+705?一起討論進(jìn)步學(xué)習(xí)。?

二、異與同

解決問題的層面不一樣

首先,Hadoop和Apache Spark兩者都是大數(shù)據(jù)框架,但是各自存在的目的不盡相同。Hadoop實(shí)質(zhì)上更多是一個(gè)分布式數(shù)據(jù)基礎(chǔ)設(shè)施: 它將巨大的數(shù)據(jù)集分派到一個(gè)由普通計(jì)算機(jī)組成的集群中的多個(gè)節(jié)點(diǎn)進(jìn)行存儲,意味著您不需要購買和維護(hù)昂貴的服務(wù)器硬件。同時(shí),Hadoop還會索引和跟蹤這些數(shù)據(jù),讓大數(shù)據(jù)處理和分析效率達(dá)到前所未有的高度。Spark,則是那么一個(gè)專門用來對那些分布式存儲的大數(shù)據(jù)進(jìn)行處理的工具,它并不會進(jìn)行分布式數(shù)據(jù)的存儲。

兩者可合可分

Hadoop除了提供為大家所共識的HDFS分布式數(shù)據(jù)存儲功能之外,還提供了叫做MapReduce的數(shù)據(jù)處理功能。所以這里我們完全可以拋開Spark,使用Hadoop自身的MapReduce來完成數(shù)據(jù)的處理。

相反,Spark也不是非要依附在Hadoop身上才能生存。但如上所述,畢竟它沒有提供文件管理系統(tǒng),所以,它必須和其他的分布式文件系統(tǒng)進(jìn)行集成才能運(yùn)作。這里我們可以選擇Hadoop的HDFS,也可以選擇其他的基于云的數(shù)據(jù)系統(tǒng)平臺。但Spark默認(rèn)來說還是被用在Hadoop上面的,畢竟,大家都認(rèn)為它們的結(jié)合是最好的。

順帶說一下什么是mapreduce:我們要數(shù)圖書館中的所有書。你數(shù)1號書架,我數(shù)2號書架。這就是“Map”。我們?nèi)嗽蕉啵瑪?shù)書就更快?,F(xiàn)在我們到一起,把所有人的統(tǒng)計(jì)數(shù)加在一起。這就是“Reduce”。

Spark數(shù)據(jù)處理速度秒殺MapReduce

Spark因?yàn)槠涮幚頂?shù)據(jù)的方式不一樣,會比MapReduce快上很多。MapReduce是分步對數(shù)據(jù)進(jìn)行處理的: ”從集群中讀取數(shù)據(jù),進(jìn)行一次處理,將結(jié)果寫到集群,從集群中讀取更新后的數(shù)據(jù),進(jìn)行下一次的處理,將結(jié)果寫到集群,等等…“ Booz Allen Hamilton的數(shù)據(jù)科學(xué)家Kirk Borne如此解析。

反觀Spark,它會在內(nèi)存中以接近“實(shí)時(shí)”的時(shí)間完成所有的數(shù)據(jù)分析:“從集群中讀取數(shù)據(jù),完成所有必須的分析處理,將結(jié)果寫回集群,完成,” Born說道。Spark的批處理速度比MapReduce快近10倍,內(nèi)存中的數(shù)據(jù)分析速度則快近100倍。如果需要處理的數(shù)據(jù)和結(jié)果需求大部分情況下是靜態(tài)的,且你也有耐心等待批處理的完成的話,MapReduce的處理方式也是完全可以接受的。

但如果你需要對流數(shù)據(jù)進(jìn)行分析,比如那些來自于工廠的傳感器收集回來的數(shù)據(jù),又或者說你的應(yīng)用是需要多重?cái)?shù)據(jù)處理的,那么你也許更應(yīng)該使用Spark進(jìn)行處理。大部分機(jī)器學(xué)習(xí)算法都是需要多重?cái)?shù)據(jù)處理的。此外,通常會用到Spark的應(yīng)用場景有以下方面:實(shí)時(shí)的市場活動,在線產(chǎn)品推薦,網(wǎng)絡(luò)安全分析,機(jī)器日記監(jiān)控等。

Recovery 恢復(fù)

兩者的災(zāi)難恢復(fù)方式迥異,但是都很不錯(cuò)。因?yàn)镠adoop將每次處理后的數(shù)據(jù)都寫入到磁盤上,所以其天生就能很有彈性的對系統(tǒng)錯(cuò)誤進(jìn)行處理。Spark的數(shù)據(jù)對象存儲在分布于數(shù)據(jù)集群中的叫做彈性分布式數(shù)據(jù)集(RDD: Resilient Distributed Dataset)中?!斑@些數(shù)據(jù)對象既可以放在內(nèi)存,也可以放在磁盤,所以RDD同樣也可以提供完成的災(zāi)難恢復(fù)功能”

三、學(xué)哪個(gè)?

其實(shí),正如所了解的那樣,Spark的確是大數(shù)據(jù)行業(yè)中的后起之秀,與Hadoop相比,Spark有很多的優(yōu)勢。Hadoop之所以在大數(shù)據(jù)行業(yè)能夠得到充分的認(rèn)同主要是因?yàn)椋?/p>

Hadoop解決了大數(shù)據(jù)的可靠存儲和處理問題;

Hadoop的開源性,這能讓很多大數(shù)據(jù)從業(yè)人員在里面找到靈感,方便實(shí)用;

Hadoop經(jīng)過了多年的開發(fā),擁有完整的生態(tài)系統(tǒng)。

HDFS在由普通PC組成的集群上提供高可靠的文件存儲,通過將塊保存多個(gè)副本的辦法解決服務(wù)器或硬板壞掉的問題。

MapReduce通過簡單的Mapper和Reducer的抽象提供一個(gè)變成模型,可以在一個(gè)由幾十臺至上百臺的PC組成的不可靠集群上并發(fā)地,分布式地處理大量的數(shù)據(jù)集,而把并發(fā)、分布式和故障恢復(fù)等計(jì)算細(xì)節(jié)隱藏起來。

Hadoop也有許多局限和不足,籠統(tǒng)的講,在數(shù)據(jù)量不斷擴(kuò)大的情況下,Hadoop的運(yùn)算速度會越發(fā)顯得吃力。雖然現(xiàn)階段,Hadoop在大數(shù)據(jù)行業(yè)內(nèi)仍然有很高頻率的應(yīng)用,但不難想象在若干年后,數(shù)據(jù)量又上升幾個(gè)數(shù)量級時(shí),Hadoop所面臨的窘境。而Spark的運(yùn)算速度是Hadoop的百分之一甚至更快,因此,在未來,Spark必然會取代Hadoop,主宰大數(shù)據(jù)行業(yè)。

那是不是就可以跳過Hadoop,只學(xué)Spark呢?當(dāng)然不是,有以下原因:

現(xiàn)階段,Hadoop仍然主導(dǎo)著大數(shù)據(jù)領(lǐng)域,我們可以學(xué)習(xí)先進(jìn)的技術(shù),但更是為了現(xiàn)階段的就業(yè),就目前階段而言,學(xué)大數(shù)據(jù)必學(xué)Hadoop。

MapReduce中有許多經(jīng)典的思想,值得我們學(xué)習(xí),這對我們理解大數(shù)據(jù)十分有幫助。

確切的講,Spark要替換的是Hadoop中的MapReduce,而不是Hadoop,Hadoop是一個(gè)工具包,而Spark和MapReduce一樣,只是一種工具而已。

結(jié)論:

如果你是往業(yè)界的算法工程方面發(fā)展,那么兩個(gè)都要學(xué),Hadoop要了解,Spark要熟悉。如果你是大數(shù)據(jù)研究人員,那么要精通這兩種。所以,這里的建議是,對于有志于在ML和大數(shù)據(jù)等領(lǐng)域發(fā)展的各位,可以按照J(rèn)ava - Hadoop - Spark這樣的路徑,如果你有C++和SQL的基礎(chǔ),那么學(xué)習(xí)曲線將不會特別陡峭,對于spark來說,學(xué)一點(diǎn)Scala則會更有幫助


向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI