溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

matlab怎么優(yōu)化支持向量機(jī)的分類

發(fā)布時(shí)間:2022-01-14 10:23:10 來源:億速云 閱讀:234 作者:iii 欄目:大數(shù)據(jù)

這篇文章主要介紹“matlab怎么優(yōu)化支持向量機(jī)的分類”,在日常操作中,相信很多人在matlab怎么優(yōu)化支持向量機(jī)的分類問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對(duì)大家解答”matlab怎么優(yōu)化支持向量機(jī)的分類”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!

通過交叉驗(yàn)證方法利用訓(xùn)練集找到分類的最佳參數(shù),不但能夠高淮確率的預(yù)測(cè)訓(xùn)練集而且要合理的預(yù)測(cè)測(cè)試集,使得測(cè)試集的分類準(zhǔn)確率也維持在一個(gè)較高水平,即使得得到的SVM分類器的學(xué)習(xí)能力和推廣能力保持一個(gè)平衡.避免過學(xué)習(xí)和欠學(xué)習(xí)狀況發(fā)生。

交叉驗(yàn)證方法就是讓c和g在一定的范圍內(nèi)取值,對(duì)于取定得c和g把訓(xùn)練集作為原始數(shù)裾集利用K - CV方法得到在此組c和g下訓(xùn)練集驗(yàn)證分類準(zhǔn)確率,最終取使得訓(xùn)練集驗(yàn)證分類準(zhǔn)確率最高的那組c和g做為最佳的參數(shù),但有一個(gè)問題就是可能會(huì)有多組的c和g對(duì)應(yīng)于最高的驗(yàn)證分類準(zhǔn)確率,這種情況怎么處理?這里采用的手段是選取能夠適到最高驗(yàn)證分類準(zhǔn)確率巾參數(shù)r最小的那組c和g做為最佳的參數(shù),如果對(duì)應(yīng)最小的c有多組g,就選取搜索到的第一組c和g做為最佳的參數(shù)。這樣做的理由是:過高的c會(huì)導(dǎo)致過學(xué)習(xí)狀態(tài)發(fā)生,即訓(xùn)練集分類準(zhǔn)確率很高而測(cè)試集分類準(zhǔn)確率很低(分類器的泛化能力降低),所以在能夠達(dá)到最高驗(yàn)證分類準(zhǔn)確率中的所有的成對(duì)的c和g中認(rèn)為較小的懲罰參數(shù)c是更佳的選擇對(duì)象。


%% 清空環(huán)境變量

clear

clc


%% 導(dǎo)入數(shù)據(jù)

load BreastTissue_data.mat

% 隨機(jī)產(chǎn)生訓(xùn)練集和測(cè)試集

n = randperm(size(matrix,1));

% 訓(xùn)練集——80個(gè)樣本

train_matrix = matrix(n(1:80),:);

train_label = label(n(1:80),:);

% 測(cè)試集——26個(gè)樣本

test_matrix = matrix(n(81:end),:);

test_label = label(n(81:end),:);


%% 數(shù)據(jù)歸一化

[Train_matrix,PS] = mapminmax(train_matrix');

Train_matrix = Train_matrix';

Test_matrix = mapminmax('apply',test_matrix',PS);

Test_matrix = Test_matrix';


%% SVM創(chuàng)建/訓(xùn)練(RBF核函數(shù))


% 尋找最佳c/g參數(shù)——交叉驗(yàn)證方法

[c,g] = meshgrid(-10:0.2:10,-10:0.2:10);

[m,n] = size(c);

cg = zeros(m,n);

eps = 10^(-4);

v = 5;

bestc = 1;

bestg = 0.1;

bestacc = 0;

for i = 1:m

    for j = 1:n

        cmd = ['-v ',num2str(v),' -t 2',' -c ',num2str(2^c(i,j)),' -g ',num2str(2^g(i,j))];

        cg(i,j) = svmtrain(train_label,Train_matrix,cmd);     

        if cg(i,j) > bestacc

            bestacc = cg(i,j);

            bestc = 2^c(i,j);

            bestg = 2^g(i,j);

        end        

        if abs( cg(i,j)-bestacc )<=eps && bestc > 2^c(i,j) 

            bestacc = cg(i,j);

            bestc = 2^c(i,j);

            bestg = 2^g(i,j);

        end               

    end

end

cmd = [' -t 2',' -c ',num2str(bestc),' -g ',num2str(bestg)];

% 創(chuàng)建/訓(xùn)練SVM模型

model = svmtrain(train_label,Train_matrix,cmd);


%% SVM仿真測(cè)試

[predict_label_1,accuracy_1] = svmpredict(train_label,Train_matrix,model);

[predict_label_2,accuracy_2] = svmpredict(test_label,Test_matrix,model);

result_1 = [train_label predict_label_1];

result_2 = [test_label predict_label_2];


%% 繪圖

figure

matlab怎么優(yōu)化支持向量機(jī)的分類  

plot(1:length(test_label),test_label,'r-*')

hold on

plot(1:length(test_label),predict_label_2,'b:o')

grid on

legend('真實(shí)類別','預(yù)測(cè)類別')

xlabel('測(cè)試集樣本編號(hào)')

ylabel('測(cè)試集樣本類別')

string = {'測(cè)試集SVM預(yù)測(cè)結(jié)果對(duì)比(RBF核函數(shù))';

          ['accuracy = ' num2str(accuracy_2(1)) '%']};

title(string)

到此,關(guān)于“matlab怎么優(yōu)化支持向量機(jī)的分類”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注億速云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI