您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關(guān)大數(shù)據(jù)中集成學習是什么意思,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
比如,我們熟知的隨機森林就是一種集成學習的方法,它結(jié)合了多個決策樹的預測結(jié)果,而每一個決策樹又是用隨機的不同的數(shù)據(jù)訓練而成。所以,從這種意義上來講,隨機森林的預測表現(xiàn)一般比單個決策樹的表現(xiàn)要好。
集成學習的概念應(yīng)該不難理解,這個想法廣泛的存在于我們的日常生活當中。
比如,當我們需要買一臺新的筆記本的時候,我們往往是根據(jù)自己的需要來選擇自己想要的配置,像多大的內(nèi)存,多大的硬盤,以及什么樣的處理器等等。
再比如,當我們決定買一輛新車的時候,我們也是根據(jù)自己的喜好和需要,選擇不同的配置,是不是需要有GPS,有video的,什么樣的發(fā)動機,...
集成學習因為結(jié)合了多種模型,從一定程度上來講,集成模型減少了噪音,方差和偏差,而這正是機器學習模型預測過程中產(chǎn)生錯誤的主要原因。如果我們能降低減少這些產(chǎn)生誤差的原因,自然就可以提高模型的整體預測水平,而這也正是集成方法的重點思想所在。
我們還依然記得盲人摸象的故事。故事中,每個人只是摸到了大象的某個局部位置,當然如果只根據(jù)所摸到的這個局部位置來預測這是什么物體的話,自然會有偏差,當然不能很好的真實的猜出來。而如果我們結(jié)合了所有盲人所得到的信息,把這些信息結(jié)合在一起,而進行猜測是什么物體的話,準確率自然會大大提升。
因此,我們再一次看到了集成學習方法的思想所在。它是一種降低方差,偏差和噪音的方法?;旧希糠N模型都是在某些情況下表現(xiàn)很好,而在某些特定情況下表現(xiàn)的不好。這樣,通過結(jié)合這幾種單獨的模型,那么集成的模型就會某種程度上克服這些缺點,從而整體上勝出任何一個單獨的模型。
集成學習模型被廣泛的應(yīng)用于各個領(lǐng)域之中,像土地覆蓋圖,人臉識別,面部表情識別等等。而比較流行的集成方法有隨機森林, XGBoost, 貝葉森模型...
關(guān)于“大數(shù)據(jù)中集成學習是什么意思”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。