您好,登錄后才能下訂單哦!
這篇文章主要講解了“機器學(xué)習(xí)中使用kNN算法的問題有哪些”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“機器學(xué)習(xí)中使用kNN算法的問題有哪些”吧!
A)真 B)假
解決方案:A
該算法的訓(xùn)練階段僅包括存儲訓(xùn)練樣本的特征向量和類別標(biāo)簽。
在測試階段,通過分配最接近該查詢點的k個訓(xùn)練樣本中最頻繁使用的標(biāo)簽來對測試點進行分類——因此需要更高的計算量。
A) 3 B) 10 C) 20 D) 50 解決方案:B
當(dāng)k的值為10時,驗證誤差最小。
A) Manhattan B) Minkowski C) Tanimoto D) Jaccard E) Mahalanobis F)都可以使用
解決方案:F
所有這些距離度量都可以用作k-NN的距離度量。
A)可用于分類 B)可用于回歸 C)可用于分類和回歸
解決方案:C
我們還可以將k-NN用于回歸問題。在這種情況下,預(yù)測可以基于k個最相似實例的均值或中位數(shù)。
如果所有數(shù)據(jù)的比例均相同,則k-NN的效果會更好
k-NN在少數(shù)輸入變量(p)下工作良好,但在輸入數(shù)量很大時會遇到困難
k-NN對所解決問題的函數(shù)形式?jīng)]有任何假設(shè)
A)1和2 B)1和3 C)僅1 D)以上所有
解決方案:D
以上陳述是kNN算法的假設(shè)
A)K-NN B)線性回歸 C)Logistic回歸
解決方案:A
k-NN算法可用于估算分類變量和連續(xù)變量的缺失值。
A)可用于連續(xù)變量 B)可用于分類變量 C)可用于分類變量和連續(xù)變量 D)無
解決方案:A
曼哈頓距離是為計算實際值特征之間的距離而設(shè)計的。
漢明距離
歐氏距離
曼哈頓距離
A)1 B)2 C)3 D)1和2 E)2和3 F)1,2和3
解決方案:A
在連續(xù)變量的情況下使用歐氏距離和曼哈頓距離,而在分類變量的情況下使用漢明距離。
A)1 B)2 C)4 D)8
解決方案:A
sqrt((1-2)^ 2 +(3-3)^ 2)= sqrt(1 ^ 2 + 0 ^ 2)= 1
A)1 B)2 C)4 D)8
解決方案:A
sqrt(mod((1-2))+ mod((3-3)))= sqrt(1 + 0)= 1
假設(shè)你給出了以下數(shù)據(jù),其中x和y是2個輸入變量,而Class是因變量。
以下是散點圖,顯示了2D空間中的上述數(shù)據(jù)。
A)+ 類 B)– 類 C)不能判斷 D)這些都不是
解決方案:A
所有三個最近點均為 + 類,因此此點將歸為+ 類。
A)+ 類 B)– 類
C)不能判斷
解決方案:B
現(xiàn)在,此點將歸類為 – 類,因為在最近的圓圈中有4個 – 類點和3個 + 類點。
假設(shè)你提供了以下2類數(shù)據(jù),其中“+”代表正類,“-”代表負(fù)類。
A)3 B)5 C)兩者都相同 D)沒有一個
解決方案:B
5-NN將至少留下一個交叉驗證錯誤。
A)2/14 B)4/14 C)6/14 D)8/14 E)以上都不是
解決方案:E
在5-NN中,我們將有10/14的交叉驗證精度。
A)當(dāng)你增加k時,偏差會增加 B)當(dāng)你減少k時,偏差會增加 C)不能判斷 D)這些都不是
解決方案:A
大K表示簡單模型,簡單模型始終被視為高偏差
A)當(dāng)你增加k時,方差會增加 B)當(dāng)你減少k時,方差會增加 C)不能判斷 D)這些都不是
解決方案:B
簡單模型將被視為方差較小模型
你的任務(wù)是通過查看以下兩個圖形來標(biāo)記兩個距離。關(guān)于下圖,以下哪個選項是正確的?
A)左為曼哈頓距離,右為歐幾里得距離 B)左為歐幾里得距離,右為曼哈頓距離 C)左或右都不是曼哈頓距離 D)左或右都不是歐幾里得距離 解決方案:B
左圖是歐幾里得距離的工作原理,右圖是曼哈頓距離。
A)我將增加k的值 B)我將減少k的值 C)噪聲不能取決于k D)這些都不是
解決方案:A
為了確保你進行的分類,你可以嘗試增加k的值。
降維
特征選擇
A)1 B)2 C)1和2 D)這些都不是
解決方案:C
在這種情況下,你可以使用降維算法或特征選擇算法
k-NN是一種基于記憶的方法,即分類器會在我們收集新的訓(xùn)練數(shù)據(jù)時立即進行調(diào)整。
在最壞的情況下,新樣本分類的計算復(fù)雜度隨著訓(xùn)練數(shù)據(jù)集中樣本數(shù)量的增加而線性增加。
A)1 B)2 C)1和2 D)這些都不是
解決方案:C
A)k1 > k2 > k3 B)k1 < k2 C)k1 = k2 = k3 D)這些都不是
解決方案:D
k值在k3中最高,而在k1中則最低
A)1 B)2 C)3 D)5 解決方案:B
如果將k的值保持為2,則交叉驗證的準(zhǔn)確性最低。你可以自己嘗試。
注意:模型已成功部署,除了模型性能外,在客戶端沒有發(fā)現(xiàn)任何技術(shù)問題
A)可能是模型過擬合 B)可能是模型未擬合 C)不能判斷 D)這些都不是
解決方案:A
在一個過擬合的模塊中,它似乎會在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但它還不夠普遍,無法在新數(shù)據(jù)上給出相同的結(jié)果。
如果k的值非常大,我們可以將其他類別的點包括到鄰域中。
如果k的值太小,該算法會對噪聲非常敏感
A)1 B)2 C)1和2 D)這些都不是
解決方案:C
這兩個選項都是正確的,并且都是不言而喻的。
A) k值越大,分類精度越好
B) k值越小,決策邊界越光滑
C) 決策邊界是線性的
D) k-NN不需要顯式的訓(xùn)練步驟
解決方案:D
選項A:并非總是如此。你必須確保k的值不要太高或太低。
選項B:此陳述不正確。決策邊界可能有些參差不齊
選項C:與選項B相同
選項D:此說法正確
A)真 B)假
解決方案:A
你可以通過組合1-NN分類器來實現(xiàn)2-NN分類器
A) K值越大,邊界越光滑
B) 隨著K值的減小,邊界變得更平滑
C) 邊界的光滑性與K值無關(guān)
D) 這些都不是
解決方案:A
通過增加K的值,決策邊界將變得更平滑
我們可以借助交叉驗證來選擇k的最優(yōu)值
歐氏距離對每個特征一視同仁
A)1 B)2 C)1和2 D)這些都不是
解決方案:C
兩種說法都是正確的
注意:計算兩個觀測值之間的距離將花費時間D。
A)N * D B)N * D * 2 C)(N * D)/ 2 D)這些都不是
解決方案:A
N的值非常大,因此選項A是正確的
A)1-NN > 2-NN > 3-NN B)1-NN < 2-NN < 3-NN C)1-NN ~ 2-NN ~ 3-NN D)這些都不是
解決方案:C
在kNN算法中,任何k值的訓(xùn)練時間都是相同的。
以下是參與者的分?jǐn)?shù)分布:
感謝各位的閱讀,以上就是“機器學(xué)習(xí)中使用kNN算法的問題有哪些”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對機器學(xué)習(xí)中使用kNN算法的問題有哪些這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。