溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

機器學(xué)習(xí)中使用kNN算法的問題有哪些

發(fā)布時間:2021-12-27 13:41:06 來源:億速云 閱讀:430 作者:iii 欄目:大數(shù)據(jù)

這篇文章主要講解了“機器學(xué)習(xí)中使用kNN算法的問題有哪些”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“機器學(xué)習(xí)中使用kNN算法的問題有哪些”吧!

技能測試問答

1) k-NN算法在測試時間而不是訓(xùn)練時間上進行了更多的計算。

A)真 B)假

解決方案:A

該算法的訓(xùn)練階段僅包括存儲訓(xùn)練樣本的特征向量和類別標(biāo)簽。

在測試階段,通過分配最接近該查詢點的k個訓(xùn)練樣本中最頻繁使用的標(biāo)簽來對測試點進行分類——因此需要更高的計算量。

2)假設(shè)你使用的算法是k最近鄰算法,在下面的圖像中,____將是k的最佳值。

機器學(xué)習(xí)中使用kNN算法的問題有哪些

A) 3 B) 10 C) 20 D) 50 解決方案:B

當(dāng)k的值為10時,驗證誤差最小。

3)在k-NN中不能使用以下哪個距離度量?

A) Manhattan B) Minkowski C) Tanimoto D) Jaccard E) Mahalanobis F)都可以使用

解決方案:F

所有這些距離度量都可以用作k-NN的距離度量。

4)關(guān)于k-NN算法,以下哪個選項是正確的?

A)可用于分類 B)可用于回歸 C)可用于分類和回歸

解決方案:C

我們還可以將k-NN用于回歸問題。在這種情況下,預(yù)測可以基于k個最相似實例的均值或中位數(shù)。

5)關(guān)于k-NN算法,以下哪個陳述是正確的?
  1. 如果所有數(shù)據(jù)的比例均相同,則k-NN的效果會更好

  2. k-NN在少數(shù)輸入變量(p)下工作良好,但在輸入數(shù)量很大時會遇到困難

  3. k-NN對所解決問題的函數(shù)形式?jīng)]有任何假設(shè)

A)1和2 B)1和3 C)僅1 D)以上所有

解決方案:D

以上陳述是kNN算法的假設(shè)

6)下列哪種機器學(xué)習(xí)算法可用于估算分類變量和連續(xù)變量的缺失值?

A)K-NN B)線性回歸 C)Logistic回歸

解決方案:A

k-NN算法可用于估算分類變量和連續(xù)變量的缺失值。

7)關(guān)于曼哈頓距離,以下哪項是正確的?

A)可用于連續(xù)變量 B)可用于分類變量 C)可用于分類變量和連續(xù)變量 D)無

解決方案:A

曼哈頓距離是為計算實際值特征之間的距離而設(shè)計的。

8)對于k-NN中的分類變量,我們使用以下哪個距離度量?
  1. 漢明距離

  2. 歐氏距離

  3. 曼哈頓距離

A)1 B)2 C)3 D)1和2 E)2和3 F)1,2和3

解決方案:A

在連續(xù)變量的情況下使用歐氏距離和曼哈頓距離,而在分類變量的情況下使用漢明距離。

9)以下哪個是兩個數(shù)據(jù)點A(1,3)和B(2,3)之間的歐幾里得距離?

A)1 B)2 C)4 D)8

解決方案:A

sqrt((1-2)^ 2 +(3-3)^ 2)= sqrt(1 ^ 2 + 0 ^ 2)= 1

10)以下哪個是兩個數(shù)據(jù)點A(1,3)和B(2,3)之間的曼哈頓距離?

A)1 B)2 C)4 D)8

解決方案:A

sqrt(mod((1-2))+ mod((3-3)))= sqrt(1 + 0)= 1

內(nèi)容:11-12

假設(shè)你給出了以下數(shù)據(jù),其中x和y是2個輸入變量,而Class是因變量。

機器學(xué)習(xí)中使用kNN算法的問題有哪些

以下是散點圖,顯示了2D空間中的上述數(shù)據(jù)。

機器學(xué)習(xí)中使用kNN算法的問題有哪些

11)假設(shè)你要使用3-NN中的歐氏距離來預(yù)測新數(shù)據(jù)點x = 1和y = 1的類別。該數(shù)據(jù)點屬于哪個類別?

A)+ 類 B)– 類 C)不能判斷 D)這些都不是

解決方案:A

所有三個最近點均為 + 類,因此此點將歸為+ 類。

12)在上一個問題中,你現(xiàn)在要使用7-NN而不是3-KNN,以下x = 1和y = 1屬于哪一個?

A)+ 類 B)– 類

C)不能判斷

解決方案:B

現(xiàn)在,此點將歸類為 – 類,因為在最近的圓圈中有4個 – 類點和3個 + 類點。

內(nèi)容13-14:

假設(shè)你提供了以下2類數(shù)據(jù),其中“+”代表正類,“-”代表負(fù)類。

機器學(xué)習(xí)中使用kNN算法的問題有哪些

13)k-NN中k的以下哪個k值會最小化留一法交叉驗證的準(zhǔn)確性?

A)3 B)5 C)兩者都相同 D)沒有一個

解決方案:B

5-NN將至少留下一個交叉驗證錯誤。

14)以下哪一項是k = 5時不進行交叉驗證的準(zhǔn)確性?

A)2/14 B)4/14 C)6/14 D)8/14 E)以上都不是

解決方案:E

在5-NN中,我們將有10/14的交叉驗證精度。

15)關(guān)于k-NN中的k,根據(jù)偏差,以下哪一項是正確的?

A)當(dāng)你增加k時,偏差會增加 B)當(dāng)你減少k時,偏差會增加 C)不能判斷 D)這些都不是

解決方案:A

大K表示簡單模型,簡單模型始終被視為高偏差

16)關(guān)于方差k-NN中的k,以下哪一項是正確的?

A)當(dāng)你增加k時,方差會增加 B)當(dāng)你減少k時,方差會增加 C)不能判斷 D)這些都不是

解決方案:B

簡單模型將被視為方差較小模型

17)以下兩個距離(歐幾里得距離和曼哈頓距離)已經(jīng)給出,我們通常在K-NN算法中使用這兩個距離。這些距離在點A(x1,y1)和點B(x2,Y2)之間。

你的任務(wù)是通過查看以下兩個圖形來標(biāo)記兩個距離。關(guān)于下圖,以下哪個選項是正確的?

機器學(xué)習(xí)中使用kNN算法的問題有哪些

A)左為曼哈頓距離,右為歐幾里得距離 B)左為歐幾里得距離,右為曼哈頓距離 C)左或右都不是曼哈頓距離 D)左或右都不是歐幾里得距離 解決方案:B

左圖是歐幾里得距離的工作原理,右圖是曼哈頓距離。

18)當(dāng)你在數(shù)據(jù)中發(fā)現(xiàn)噪聲時,你將在k-NN中考慮以下哪個選項?

A)我將增加k的值 B)我將減少k的值 C)噪聲不能取決于k D)這些都不是

解決方案:A

為了確保你進行的分類,你可以嘗試增加k的值。

19)在k-NN中,由于維數(shù)的存在,很可能過度擬合。你將考慮使用以下哪個選項來解決此問題?
  1. 降維

  2. 特征選擇

A)1 B)2 C)1和2 D)這些都不是

解決方案:C

在這種情況下,你可以使用降維算法或特征選擇算法

20)以下是兩個陳述。以下兩個陳述中哪一項是正確的?
  1. k-NN是一種基于記憶的方法,即分類器會在我們收集新的訓(xùn)練數(shù)據(jù)時立即進行調(diào)整。

  2. 在最壞的情況下,新樣本分類的計算復(fù)雜度隨著訓(xùn)練數(shù)據(jù)集中樣本數(shù)量的增加而線性增加。

A)1 B)2 C)1和2 D)這些都不是

解決方案:C

21)假設(shè)你給出了以下圖像(左1,中2和右3),現(xiàn)在你的任務(wù)是在每個圖像中找出k-NN的k值,其中k1代表第1個圖,k2代表第2個圖,k3是第3個圖。

機器學(xué)習(xí)中使用kNN算法的問題有哪些

A)k1 > k2 > k3 B)k1 < k2 C)k1 = k2 = k3 D)這些都不是

解決方案:D

k值在k3中最高,而在k1中則最低

22)在下圖中,下列哪一個k值可以給出最低的留一法交叉驗證精度?

機器學(xué)習(xí)中使用kNN算法的問題有哪些

A)1 B)2 C)3 D)5 解決方案:B

如果將k的值保持為2,則交叉驗證的準(zhǔn)確性最低。你可以自己嘗試。

23)一家公司建立了一個kNN分類器,該分類器在訓(xùn)練數(shù)據(jù)上獲得100%的準(zhǔn)確性。當(dāng)他們在客戶端上部署此模型時,發(fā)現(xiàn)該模型根本不準(zhǔn)確。以下哪項可能出錯了?

注意:模型已成功部署,除了模型性能外,在客戶端沒有發(fā)現(xiàn)任何技術(shù)問題

A)可能是模型過擬合 B)可能是模型未擬合 C)不能判斷 D)這些都不是

解決方案:A

在一個過擬合的模塊中,它似乎會在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但它還不夠普遍,無法在新數(shù)據(jù)上給出相同的結(jié)果。

24)你給出了以下2條語句,發(fā)現(xiàn)在k-NN情況下哪個選項是正確的?
  1. 如果k的值非常大,我們可以將其他類別的點包括到鄰域中。

  2. 如果k的值太小,該算法會對噪聲非常敏感

A)1 B)2 C)1和2 D)這些都不是

解決方案:C

這兩個選項都是正確的,并且都是不言而喻的。

25)對于k-NN分類器,以下哪個陳述是正確的?

A) k值越大,分類精度越好

B) k值越小,決策邊界越光滑

C) 決策邊界是線性的

D) k-NN不需要顯式的訓(xùn)練步驟

解決方案:D

選項A:并非總是如此。你必須確保k的值不要太高或太低。

選項B:此陳述不正確。決策邊界可能有些參差不齊

選項C:與選項B相同

選項D:此說法正確

26)判斷題:可以使用1-NN分類器構(gòu)造2-NN分類器嗎?

A)真 B)假

解決方案:A

你可以通過組合1-NN分類器來實現(xiàn)2-NN分類器

27)在k-NN中,增加/減少k值會發(fā)生什么?

A) K值越大,邊界越光滑

B) 隨著K值的減小,邊界變得更平滑

C) 邊界的光滑性與K值無關(guān)

D) 這些都不是

解決方案:A

通過增加K的值,決策邊界將變得更平滑

28)以下是針對k-NN算法給出的兩條陳述,其中哪一條是真的?
  1. 我們可以借助交叉驗證來選擇k的最優(yōu)值

  2. 歐氏距離對每個特征一視同仁

A)1 B)2 C)1和2 D)這些都不是

解決方案:C

兩種說法都是正確的

內(nèi)容29-30:假設(shè)你已經(jīng)訓(xùn)練了一個k-NN模型,現(xiàn)在你想要對測試數(shù)據(jù)進行預(yù)測。在獲得預(yù)測之前,假設(shè)你要計算k-NN用于預(yù)測測試數(shù)據(jù)類別的時間。

注意:計算兩個觀測值之間的距離將花費時間D。

29)如果測試數(shù)據(jù)中有N(非常大)的觀測值,則1-NN將花費多少時間?

A)N * D B)N * D * 2 C)(N * D)/ 2 D)這些都不是

解決方案:A

N的值非常大,因此選項A是正確的

30)1-NN,2-NN,3-NN所花費的時間之間是什么關(guān)系。

A)1-NN > 2-NN > 3-NN B)1-NN < 2-NN < 3-NN C)1-NN ~ 2-NN ~ 3-NN D)這些都不是

解決方案:C

在kNN算法中,任何k值的訓(xùn)練時間都是相同的。

總體分布

以下是參與者的分?jǐn)?shù)分布:

機器學(xué)習(xí)中使用kNN算法的問題有哪些

感謝各位的閱讀,以上就是“機器學(xué)習(xí)中使用kNN算法的問題有哪些”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對機器學(xué)習(xí)中使用kNN算法的問題有哪些這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI