溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

發(fā)布時(shí)間:2022-01-17 16:25:05 來源:億速云 閱讀:865 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要為大家展示了“Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測”這篇文章吧。

支持向量機(jī)常用于數(shù)據(jù)分類,也可以用于數(shù)據(jù)的回歸預(yù)測

1、Question?

我們經(jīng)常會(huì)遇到這樣的問題,給你一些屬于兩個(gè)類別的數(shù)據(jù)(如子圖1),需要一個(gè)線性分類器將這些數(shù)據(jù)分開,有很多分法(如子圖2),現(xiàn)在有一個(gè)問題,兩個(gè)分類器,哪一個(gè)更好?為了判斷好壞,我們需要引入一個(gè)準(zhǔn)則:好的分類器不僅僅能夠很好的分開已有的數(shù)據(jù)集,還能對為知的數(shù)據(jù)進(jìn)行兩個(gè)劃分,假設(shè)現(xiàn)在有一個(gè)屬于紅色數(shù)據(jù)點(diǎn)的新數(shù)據(jù)(如子圖3中的綠三角),可以看到此時(shí)黑色的線會(huì)把這個(gè)新的數(shù)據(jù)集分錯(cuò),而藍(lán)色的線不會(huì)。**那么如何評判兩條線的健壯性?**此時(shí),引入一個(gè)重要的概念——最大間隔(刻畫著當(dāng)前分類器與數(shù)據(jù)集的邊界)(如子圖4中的陰影部分)可以看到藍(lán)色的線最大的間隔大于黑色的線,所以選擇藍(lán)色的線作為我們的分類器。(如子圖5)此時(shí)的分類器是最優(yōu)分類器嗎?或者說,有沒有更好的分類器具有更大的間隔?有的(如子圖6)為了找到最優(yōu)分類器,引入SVM

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

2、Answer!——SVM

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_blobs
X, y = make_blobs(n_samples=60, centers=2, random_state=0, cluster_std=0.4)
x_fit = np.linspace(0, 3)
#使用SVM
from sklearn.svm import SVC
# SVM 函數(shù)
clf = SVC(kernel='linear')
clf.fit(X, y)
# 最佳函數(shù)
w = clf.coef_[0]
a = -w[0] / w[1]
y_p = a*x_fit - (clf.intercept_[0]) / w[1]

# 最大邊距 下邊界
b_down = clf.support_vectors_[0]
y_down = a* x_fit + b_down[1] - a * b_down[0]
# 最大邊距 上屆
b_up = clf.support_vectors_[-1]
y_up = a* x_fit + b_up[1] - a * b_up[0]

# 畫散點(diǎn)圖
X, y = make_blobs(n_samples=60, centers=2, random_state=0, cluster_std=0.4)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap=plt.cm.Paired)
# 畫函數(shù)
plt.plot(x_fit, y_p, '-c')
# 畫邊距
plt.fill_between(x_fit, y_down, y_up, edgecolor='none', color='#AAAAAA', alpha=0.4)
# 畫支持向量
plt.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], edgecolor='b',
            s=80, facecolors='none')

運(yùn)行結(jié)果

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

其中帶邊線的是距離當(dāng)前分類器最近的點(diǎn),將這些點(diǎn)稱之為支持向量,支持向量機(jī)為我們在眾多可能的分類器之間進(jìn)行選擇的原則,從而確保對為知數(shù)據(jù)集具有更高的泛化性

3、軟間隔

在很多時(shí)候,我們拿到是數(shù)據(jù)不想上述那樣分明(如下圖)這種情況并不容易找到上述那樣的最大間隔。于是就有了軟間隔,相對于硬間隔,我們允許個(gè)別數(shù)據(jù)出現(xiàn)在間隔帶中。我們知道,如果沒有一個(gè)原則進(jìn)行約束,滿足軟間隔的分類器也會(huì)出現(xiàn)很多條。所以需要對分錯(cuò)的數(shù)據(jù)進(jìn)行懲罰,SVM函數(shù),有一個(gè)參數(shù)C就是懲罰參數(shù)。懲罰參數(shù)越小,容忍性就越大

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

——此處C設(shè)置為1

#%%軟間隔
X, y = make_blobs(n_samples=60, centers=2, random_state=0, cluster_std=0.9)
x_fit = np.linspace(-2, 4)
# 懲罰參數(shù):C=1,
clf = SVC(C=1, kernel='linear')
clf.fit(X, y)

# 最佳函數(shù)
w = clf.coef_[0]
a = -w[0] / w[1]
y_great = a*x_fit - (clf.intercept_[0]) / w[1]
# 最大邊距 下邊界
b_down = clf.support_vectors_[0]
y_down = a* x_fit + b_down[1] - a * b_down[0]
# 最大邊距 上邊界
b_up = clf.support_vectors_[-1]
y_up = a* x_fit + b_up[1] - a * b_up[0]
# 畫散點(diǎn)圖
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap=plt.cm.Paired)
# 畫函數(shù)
plt.plot(x_fit, y_great, '-c')
# 畫邊距
plt.fill_between(x_fit, y_down, y_up, edgecolor='none', color='#AAAAAA', alpha=0.4)
# 畫支持向量
plt.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], edgecolor='b',
            s=80, facecolors='none')

運(yùn)行結(jié)果

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

——當(dāng)將C設(shè)置為0.2時(shí),SVM會(huì)更有包容性,從而兼容更多的錯(cuò)分樣本,結(jié)果如下:

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

4、超平面

有時(shí),我們得到的數(shù)據(jù)是這樣的(如下圖),這時(shí),可以將二維空間(低維)的數(shù)據(jù)映射到三維空間(高維)中,此時(shí),可以通過一個(gè)超平面對數(shù)據(jù)進(jìn)行劃分,所以,映射的目的在于使用SVM在高維空間找到超平面的能力

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

#%%超平面
from sklearn.datasets import make_circles
# 畫散點(diǎn)圖
X, y = make_circles(100, factor=.1, noise=.1, random_state=2019)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap=plt.cm.Paired)

# 數(shù)據(jù)映射
r = np.exp(-(X[:, 0] ** 2 + X[:, 1] ** 2))

ax = plt.subplot(projection='3d')
ax.scatter3D(X[:, 0], X[:, 1], r, c=y, s=50, cmap=plt.cm.Paired)
ax.set_xlabel('x')
ax.set_ylabel('y')
ax.set_zlabel('z')

x_1, y_1 = np.meshgrid(np.linspace(-1, 1), np.linspace(-1, 1))
z =  0.01*x_1 + 0.01*y_1 + 0.5
ax.plot_surface(x_1, y_1, z, alpha=0.3)

運(yùn)行結(jié)果

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

使用高斯核函數(shù)實(shí)現(xiàn)這種情形的分類

#%%使用高斯核函數(shù)實(shí)現(xiàn)這種分類:kernel=‘rbf'
# 畫圖
X, y = make_circles(100, factor=.1, noise=.1, random_state=2019)
plt.scatter(X[:, 0], X[:, 1], c=y, s=50, cmap=plt.cm.Paired)
clf = SVC(kernel='rbf')
clf.fit(X, y)

ax = plt.gca()
x = np.linspace(-1, 1)
y = np.linspace(-1, 1)
x_1, y_1 = np.meshgrid(x, y)
P = np.zeros_like(x_1)
for i, xi in enumerate(x):
    for j, yj in enumerate(y):
        P[i, j] = clf.decision_function(np.array([[xi, yj]]))
ax.contour(x_1, y_1, P, colors='k', levels=[-1, 0, 0.9], alpha=0.5,linestyles=['--', '-', '--'])
plt.scatter(clf.support_vectors_[:, 0], clf.support_vectors_[:, 1], edgecolor='b',s=80, facecolors='none');

運(yùn)行結(jié)果

Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測

以上是“Python中如何實(shí)現(xiàn)支持向量機(jī)數(shù)據(jù)分類和回歸預(yù)測”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI