溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

數(shù)據(jù)挖掘中最容易犯的幾個錯誤,你知道嗎?

發(fā)布時間:2020-06-26 20:28:55 來源:網(wǎng)絡 閱讀:146 作者:Hjiangxue 欄目:大數(shù)據(jù)

按照Elder博士的總結,這10大易犯錯誤包括:

0. 缺乏數(shù)據(jù)(Lack Data)

1. 太關注訓練(Focus on Training)

2. 只依賴一項技術(Rely on One Technique)

3. 提錯了問題(Ask the Wrong Question)

4. 只靠數(shù)據(jù)來說話(Listen (only) to the Data)

5. 使用了未來的信息(Accept Leaks from the Future)

6. 拋棄了不該忽略的案例(Discount Pesky Cases)

7. 輕信預測(Extrapolate)

8. 試圖回答所有問題(Answer Every Inquiry)

9. 隨便地進行抽樣(Sample Casually)

10. 太相信最佳模型(Believe the Best Model)

數(shù)據(jù)挖掘中最容易犯的幾個錯誤,你知道嗎?

數(shù)據(jù)挖掘中易犯的十大錯誤

詳情如下:

0. 缺乏數(shù)據(jù)(Lack Data)

對于分類問題或預估問題來說,常常缺乏準確標注的案例。

例如:欺詐偵測(Fraud Detection)——在上百萬的交易中,可能只有屈指可數(shù)的欺詐交易,還有很多的欺詐交易沒有被正確標注出來,這就需要在建模前花費大量人力來修正;信用評分(Credit Scoring)——需要對潛在的高風險客戶進行長期跟蹤(比如兩年),從而積累足夠的評分樣本。

1. 太關注訓練(Focus on Training)

IDMer:就象體育訓練中越來越注重實戰(zhàn)訓練,因為單純的封閉式訓練常常會訓練時狀態(tài)神勇,比賽時一塌糊涂。實際上,只有樣本外數(shù)據(jù)上的模型評分結果才真正有用!(否則的話,直接用參照表好了!)

例如:×××檢測(Cancer detection)——MD Anderson的醫(yī)生和研究人員(1993)使用神經(jīng)網(wǎng)絡來進行×××檢測,驚奇地發(fā)現(xiàn),訓練時間越長(從幾天延長至數(shù)周),對訓練集的性能改善非常輕微,但在測試集上的性能卻明顯下降;機器學習或計算機科學研究者常常試圖讓模型在已知數(shù)據(jù)上表現(xiàn)最優(yōu),這樣做的結果通常會導致過度擬合(overfit)。歡迎加入大數(shù)據(jù)學習交流分享群: 658558542   一起吹水交流學習(?點擊即可加入群聊)

解決方法:

解決這個問題的典型方法是重抽樣(Re-Sampling)。重抽樣技術包括:bootstrap、cross-validation、jackknife、leave-one-out...等等。

2. 只依賴一項技術(Rely on One Technique)

IDMer:這個錯誤和第10種錯誤有相通之處,請同時參照其解決方法。沒有對比也就沒有所謂的好壞,辯證法的思想在此體現(xiàn)無遺?!爱斝『⒆邮帜靡话彦N子時,整個世界看起來就是一枚釘子?!币胱尮ぷ鞅M善盡美,就需要一套完整的工具箱。不要簡單地信賴你用單個方法分析的結果,至少要和傳統(tǒng)方法(比如線性回歸或線性判別分析)做個比較。

研究結果:按照《神經(jīng)網(wǎng)絡》期刊的統(tǒng)計,在過去3年來,只有1/6的文章中做到了上述兩點。也就是說,在獨立于訓練樣本之外的測試集上進行了開集測試,并與其它廣泛采用的方法進行了對比。

解決方法:

使用一系列好的工具和方法。(每種工具或方法可能最多帶來5%~10%的改進)。

3. 提錯了問題(Ask the Wrong Question)

IDMer:一般在分類算法中都會給出分類精度作為衡量模型好壞的標準,但在實際項目中我們卻幾乎不看這個指標。為什么?因為那不是我們關注的目標。

a)項目的目標:一定要鎖定正確的目標

例如:欺詐偵測(關注的是正例!)(Shannon實驗室在國際長途電話上的分析):不要試圖在一般的通話中把欺詐和非欺詐行為分類出來,重點應放在如何描述正常通話的特征,然后據(jù)此發(fā)現(xiàn)異常通話行為。

b)模型的目標:讓計算機去做你希望它做的事

大多數(shù)研究人員會沉迷于模型的收斂性來盡量降低誤差,這樣讓他們可以獲得數(shù)學上的美感。但更應該讓計算機做的事情應該是如何改善業(yè)務,而不是僅僅側重模型計算上的精度。歡迎加入大數(shù)據(jù)學習交流分享群: 658558542   一起吹水交流學習(?點擊即可加入群聊)

4. 只靠數(shù)據(jù)來說話(Listen (only) to the Data)

IDMer:“讓數(shù)據(jù)說話”沒有錯,關鍵是還要記得另一句話:兼聽則明,偏聽則暗!如果數(shù)據(jù)+工具就可以解決問題的話,還要人做什么呢?

4a.投機取巧的數(shù)據(jù):數(shù)據(jù)本身只能幫助分析人員找到什么是顯著的結果,但它并不能告訴你結果是對還是錯。

4b.經(jīng)過設計的實驗:某些實驗設計中摻雜了人為的成分,這樣的實驗結果也常常不可信。

5. 使用了未來的信息(Accept Leaks from the Future)

IDMer:看似不可能,卻是實際中很容易犯的錯誤,特別是你面對成千上萬個變量的時候。認真、仔細、有條理是數(shù)據(jù)挖掘人員的基本要求。預報(Forecast)示例:預報芝加哥銀行在某天的利率,使用神經(jīng)網(wǎng)絡建模,模型的準確率達到95%。但在模型中卻使用了該天的利率作為輸入變量。金融業(yè)中的預報示例:使用3日的移動平均來預報,但卻把移動平均的中點設在今天。

解決方法:

要仔細查看那些讓結果表現(xiàn)得異常好的變量,這些變量有可能是不應該使用,或者不應該直接使用的。給數(shù)據(jù)加上時間戳,避免被誤用。

6. 拋棄了不該忽略的案例(Discount Pesky Cases)

IDMer:到底是“寧為雞頭,不為鳳尾”,還是“大隱隱于市,小隱隱于野”?不同的人生態(tài)度可以有同樣精彩的人生,不同的數(shù)據(jù)也可能蘊含同樣重要的價值。異常值可能會導致錯誤的結果(比如價格中的小數(shù)點標錯了),但也可能是問題的答案(比如臭氧洞)。所以需要仔細檢查這些異常。研究中最讓激動的話語不是“啊哈!”,而是“這就有點奇怪了……”數(shù)據(jù)中的不一致性有可能會是解決問題的線索,深挖下去也許可以解決一個大的業(yè)務問題。

例如:在直郵營銷中,在對家庭地址的合并和清洗過程中發(fā)現(xiàn)的數(shù)據(jù)不一致,反而可能是新的營銷機會。

解決方法:

可視化可以幫助你分析大量的假設是否成立。

7. 輕信預測(Extrapolate)

IDMer:依然是辯證法中的觀點,事物都是不斷發(fā)展變化的。人們常常在經(jīng)驗不多的時候輕易得出一些結論。即便發(fā)現(xiàn)了一些反例,人們也不太愿意放棄原先的想法。維度咒語:在低維度上的直覺,放在高維度空間中,常常是毫無意義的。

解決方法:進化論。沒有正確的結論,只有越來越準確的結論。

8. 試圖回答所有問題(Answer Every Inquiry)

IDMer:有點像我爬山時鼓勵自己的一句話“我不知道什么時候能登上山峰,但我知道爬一步就離終點近一步。”“不知道”是一種有意義的模型結果。模型也許無法100%準確回答問題,但至少可以幫我們估計出現(xiàn)某種結果的可能性。

9. 隨便地進行抽樣(Sample Casually)

9a降低抽樣水平。例如,MD直郵公司進行響應預測分析,但發(fā)現(xiàn)數(shù)據(jù)集中的不響應客戶占比太高(總共一百萬直郵客戶,其中超過99%的人未對營銷做出響應)。于是建模人員做了如下抽樣:把所有響應者放入樣本集,然后在所有不響應者中進行系統(tǒng)抽樣,即每隔10人抽一個放入樣本集,直到樣本集達到10萬人。但模型居然得出如下規(guī)則:凡是居住在Ketchikan、Wrangell和Ward Cove Alaska的人都會響應營銷。這顯然是有問題的結論。(問題就出在這種抽樣方法上,因為原始數(shù)據(jù)集已經(jīng)按照郵政編碼排序,上面這三個地區(qū)中不響應者未能被抽取到樣本集中,故此得出了這種結論)。

解決方法:“喝前搖一搖!”先打亂原始數(shù)據(jù)集中的順序,從而保證抽樣的隨機性。9b提高抽樣水平。例如,在信用評分中,因為違約客戶的占比一般都非常低,所以在建模時常常會人為調高違約客戶的占比(比如把這些違約客戶的權重提高5倍)。建模中發(fā)現(xiàn),隨著模型越來越復雜,判別違約客戶的準確率也越來越高,但對正常客戶的誤判率也隨之升高。(問題出在數(shù)據(jù)集的劃分上。在把原始數(shù)據(jù)集劃分為訓練集和測試集時,原始數(shù)據(jù)集中違約客戶的權重已經(jīng)被提高過了)

解決方法:先進行數(shù)據(jù)集劃分,然后再提高訓練集中違約客戶的權重。

10. 太相信最佳模型(Believe the Best Model)

IDMer:還是那句老話-“沒有最好,只有更好!”可解釋性并不一定總是必要的??雌饋聿⒉煌耆_或者可以解釋的模型,有時也會有用?!白罴选蹦P椭惺褂玫囊恍┳兞浚瑫稚⑷藗兲嗟淖⒁饬?。(不可解釋性有時也是一個優(yōu)點)一般來說,很多變量看起來彼此都很相似,而最佳模型的結構看上去也千差萬別,無跡可循。但需注意的是,結構上相似并不意味著功能上也相似。

解決方法:把多個模型集裝起來可能會帶來更好更穩(wěn)定的結果。

結語

感謝您的觀看,如有不足之處,歡迎批評指正。

如果有對大數(shù)據(jù)感興趣的小伙伴或者是從事大數(shù)據(jù)的老司機可以加群:

658558542    (?點擊即可加入群聊)

里面整理了一大份學習資料,全都是些干貨,包括大數(shù)據(jù)技術入門,海量數(shù)據(jù)高級分析語言,海量數(shù)據(jù)存儲分布式存儲,以及海量數(shù)據(jù)分析分布式計算等部分,送給每一位大數(shù)據(jù)小伙伴,這里不止是小白聚集地,還有大牛在線解答!歡迎初學和進階中的小伙伴一起進群學習交流,共同進步!

最后祝福所有遇到瓶頸的大數(shù)據(jù)程序員們突破自己,祝福大家在往后的工作與面試中一切順利。


向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內容。

AI