您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)是什么,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。
說明:所列出的函數(shù)適用于MATLAB5.3以上版本,為了簡明起見,只列出了函數(shù)名。
1. 網(wǎng)絡(luò)創(chuàng)建函數(shù)
newp 創(chuàng)建感知器網(wǎng)絡(luò)
newlind 設(shè)計一線性層
newlin 創(chuàng)建一線性層
newff 創(chuàng)建一前饋BP網(wǎng)絡(luò)
newcf 創(chuàng)建一多層前饋BP網(wǎng)絡(luò)
newfftd 創(chuàng)建一前饋輸入延遲BP網(wǎng)絡(luò)
newrb 設(shè)計一徑向基網(wǎng)絡(luò)
newrbe 設(shè)計一嚴(yán)格的徑向基網(wǎng)絡(luò)
newgrnn 設(shè)計一廣義回歸神經(jīng)網(wǎng)絡(luò)
newpnn 設(shè)計一概率神經(jīng)網(wǎng)絡(luò)
newc 創(chuàng)建一競爭層
newsom 創(chuàng)建一自組織特征映射
newhop 創(chuàng)建一Hopfield遞歸網(wǎng)絡(luò)
newelm 創(chuàng)建一Elman遞歸網(wǎng)絡(luò)
2. 網(wǎng)絡(luò)應(yīng)用函數(shù)
sim 仿真一個神經(jīng)網(wǎng)絡(luò)
init 初始化一個神經(jīng)網(wǎng)絡(luò)
adapt 神經(jīng)網(wǎng)絡(luò)的自適應(yīng)化
train 訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)
3. 權(quán)函數(shù)
dotprod 權(quán)函數(shù)的點(diǎn)積
ddotprod 權(quán)函數(shù)點(diǎn)積的導(dǎo)數(shù)
dist Euclidean距離權(quán)函數(shù)
normprod 規(guī)范點(diǎn)積權(quán)函數(shù)
negdist Negative距離權(quán)函數(shù)
mandist Manhattan距離權(quán)函數(shù)
linkdist Link距離權(quán)函數(shù)
4. 網(wǎng)絡(luò)輸入函數(shù)
netsum 網(wǎng)絡(luò)輸入函數(shù)的求和
dnetsum 網(wǎng)絡(luò)輸入函數(shù)求和的導(dǎo)數(shù)
5. 傳遞函數(shù)
hardlim 硬限幅傳遞函數(shù)
hardlims 對稱硬限幅傳遞函數(shù)
purelin 線性傳遞函數(shù)
tansig 正切S型傳遞函數(shù)
logsig 對數(shù)S型傳遞函數(shù)
dpurelin 線性傳遞函數(shù)的導(dǎo)數(shù)
dtansig 正切S型傳遞函數(shù)的導(dǎo)數(shù)
dlogsig 對數(shù)S型傳遞函數(shù)的導(dǎo)數(shù)
compet 競爭傳遞函數(shù)
radbas 徑向基傳遞函數(shù)
satlins 對稱飽和線性傳遞函數(shù)
6. 初始化函數(shù)
initlay 層與層之間的網(wǎng)絡(luò)初始化函數(shù)
initwb 閾值與權(quán)值的初始化函數(shù)
initzero 零權(quán)/閾值的初始化函數(shù)
initnw Nguyen_Widrow層的初始化函數(shù)
initcon Conscience閾值的初始化函數(shù)
midpoint 中點(diǎn)權(quán)值初始化函數(shù)
7. 性能分析函數(shù)
mae 均值絕對誤差性能分析函數(shù)
mse 均方差性能分析函數(shù)
msereg 均方差w/reg性能分析函數(shù)
dmse 均方差性能分析函數(shù)的導(dǎo)數(shù)
dmsereg 均方差w/reg性能分析函數(shù)的導(dǎo)數(shù)
8. 學(xué)習(xí)函數(shù)
learnp 感知器學(xué)習(xí)函數(shù)
learnpn 標(biāo)準(zhǔn)感知器學(xué)習(xí)函數(shù)
learnwh Widrow_Hoff學(xué)習(xí)規(guī)則
learngd BP學(xué)習(xí)規(guī)則
learngdm 帶動量項(xiàng)的BP學(xué)習(xí)規(guī)則
learnk Kohonen權(quán)學(xué)習(xí)函數(shù)
learncon Conscience閾值學(xué)習(xí)函數(shù)
learnsom 自組織映射權(quán)學(xué)習(xí)函數(shù)
9. 自適應(yīng)函數(shù)
adaptwb 網(wǎng)絡(luò)權(quán)與閾值的自適應(yīng)函數(shù)
10. 訓(xùn)練函數(shù)
trainwb 網(wǎng)絡(luò)權(quán)與閾值的訓(xùn)練函數(shù)
traingd 梯度下降的BP算法訓(xùn)練函數(shù)
traingdm 梯度下降w/動量的BP算法訓(xùn)練函數(shù)
traingda 梯度下降w/自適應(yīng)lr的BP算法訓(xùn)練函數(shù)
traingdx 梯度下降w/動量和自適應(yīng)lr的BP算法訓(xùn)練函數(shù)
trainlm Levenberg_Marquardt的BP算法訓(xùn)練函數(shù)
trainwbl 每個訓(xùn)練周期用一個權(quán)值矢量或偏差矢量的訓(xùn)練函數(shù)
11. 分析函數(shù)
maxlinlr 線性學(xué)習(xí)層的最大學(xué)習(xí)率
errsurf 誤差曲面
12. 繪圖函數(shù)
plotes 繪制誤差曲面
plotep 繪制權(quán)和閾值在誤差曲面上的位置
plotsom 繪制自組織映射圖
13. 符號變換函數(shù)
ind2vec 轉(zhuǎn)換下標(biāo)成為矢量
vec2ind 轉(zhuǎn)換矢量成為下標(biāo)矢量14. 拓?fù)浜瘮?shù)
gridtop 網(wǎng)絡(luò)層拓?fù)浜瘮?shù)
hextop 六角層拓?fù)浜瘮?shù)
randtop 隨機(jī)層拓?fù)浜瘮?shù)
關(guān)于MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)是什么就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。