溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)是什么

發(fā)布時間:2021-10-14 14:13:57 來源:億速云 閱讀:196 作者:柒染 欄目:編程語言

這篇文章將為大家詳細(xì)講解有關(guān)MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)是什么,文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。

說明:所列出的函數(shù)適用于MATLAB5.3以上版本,為了簡明起見,只列出了函數(shù)名。
1. 網(wǎng)絡(luò)創(chuàng)建函數(shù)
   newp      創(chuàng)建感知器網(wǎng)絡(luò)
   newlind     設(shè)計一線性層
   newlin     創(chuàng)建一線性層
   newff     創(chuàng)建一前饋BP網(wǎng)絡(luò)
   newcf     創(chuàng)建一多層前饋BP網(wǎng)絡(luò)
   newfftd     創(chuàng)建一前饋輸入延遲BP網(wǎng)絡(luò)
   newrb     設(shè)計一徑向基網(wǎng)絡(luò)
   newrbe     設(shè)計一嚴(yán)格的徑向基網(wǎng)絡(luò)
   newgrnn     設(shè)計一廣義回歸神經(jīng)網(wǎng)絡(luò)
   newpnn     設(shè)計一概率神經(jīng)網(wǎng)絡(luò)
   newc      創(chuàng)建一競爭層
   newsom     創(chuàng)建一自組織特征映射
   newhop     創(chuàng)建一Hopfield遞歸網(wǎng)絡(luò)
   newelm     創(chuàng)建一Elman遞歸網(wǎng)絡(luò)
2. 網(wǎng)絡(luò)應(yīng)用函數(shù)
   sim      仿真一個神經(jīng)網(wǎng)絡(luò)
   init      初始化一個神經(jīng)網(wǎng)絡(luò)
   adapt     神經(jīng)網(wǎng)絡(luò)的自適應(yīng)化
   train     訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)
3. 權(quán)函數(shù)
   dotprod     權(quán)函數(shù)的點(diǎn)積
   ddotprod     權(quán)函數(shù)點(diǎn)積的導(dǎo)數(shù)
   dist      Euclidean距離權(quán)函數(shù)
   normprod     規(guī)范點(diǎn)積權(quán)函數(shù)
   negdist     Negative距離權(quán)函數(shù)
   mandist     Manhattan距離權(quán)函數(shù)
   linkdist     Link距離權(quán)函數(shù)
4. 網(wǎng)絡(luò)輸入函數(shù)
   netsum     網(wǎng)絡(luò)輸入函數(shù)的求和
   dnetsum     網(wǎng)絡(luò)輸入函數(shù)求和的導(dǎo)數(shù)
5. 傳遞函數(shù)
   hardlim     硬限幅傳遞函數(shù)
   hardlims     對稱硬限幅傳遞函數(shù)
   purelin     線性傳遞函數(shù)
   tansig     正切S型傳遞函數(shù)
   logsig     對數(shù)S型傳遞函數(shù)
   dpurelin     線性傳遞函數(shù)的導(dǎo)數(shù)
   dtansig     正切S型傳遞函數(shù)的導(dǎo)數(shù)
   dlogsig     對數(shù)S型傳遞函數(shù)的導(dǎo)數(shù)
   compet     競爭傳遞函數(shù)
   radbas     徑向基傳遞函數(shù)
   satlins     對稱飽和線性傳遞函數(shù)
6. 初始化函數(shù)
   initlay     層與層之間的網(wǎng)絡(luò)初始化函數(shù)
   initwb     閾值與權(quán)值的初始化函數(shù)
   initzero     零權(quán)/閾值的初始化函數(shù)
   initnw     Nguyen_Widrow層的初始化函數(shù)
   initcon     Conscience閾值的初始化函數(shù)
   midpoint     中點(diǎn)權(quán)值初始化函數(shù)
7. 性能分析函數(shù)
   mae      均值絕對誤差性能分析函數(shù)
   mse      均方差性能分析函數(shù)
   msereg     均方差w/reg性能分析函數(shù)
   dmse      均方差性能分析函數(shù)的導(dǎo)數(shù)
   dmsereg     均方差w/reg性能分析函數(shù)的導(dǎo)數(shù)
8. 學(xué)習(xí)函數(shù)
   learnp     感知器學(xué)習(xí)函數(shù)
   learnpn     標(biāo)準(zhǔn)感知器學(xué)習(xí)函數(shù)
   learnwh     Widrow_Hoff學(xué)習(xí)規(guī)則
   learngd     BP學(xué)習(xí)規(guī)則
   learngdm     帶動量項(xiàng)的BP學(xué)習(xí)規(guī)則
   learnk     Kohonen權(quán)學(xué)習(xí)函數(shù)
   learncon     Conscience閾值學(xué)習(xí)函數(shù)
   learnsom     自組織映射權(quán)學(xué)習(xí)函數(shù)
9. 自適應(yīng)函數(shù)
   adaptwb     網(wǎng)絡(luò)權(quán)與閾值的自適應(yīng)函數(shù)
10. 訓(xùn)練函數(shù)
   trainwb     網(wǎng)絡(luò)權(quán)與閾值的訓(xùn)練函數(shù)
   traingd     梯度下降的BP算法訓(xùn)練函數(shù)
   traingdm     梯度下降w/動量的BP算法訓(xùn)練函數(shù)
   traingda     梯度下降w/自適應(yīng)lr的BP算法訓(xùn)練函數(shù)
   traingdx     梯度下降w/動量和自適應(yīng)lr的BP算法訓(xùn)練函數(shù)
   trainlm     Levenberg_Marquardt的BP算法訓(xùn)練函數(shù)
   trainwbl     每個訓(xùn)練周期用一個權(quán)值矢量或偏差矢量的訓(xùn)練函數(shù)
11. 分析函數(shù)
   maxlinlr     線性學(xué)習(xí)層的最大學(xué)習(xí)率
   errsurf     誤差曲面
12. 繪圖函數(shù)
   plotes     繪制誤差曲面
   plotep     繪制權(quán)和閾值在誤差曲面上的位置
   plotsom     繪制自組織映射圖
13. 符號變換函數(shù)
   ind2vec     轉(zhuǎn)換下標(biāo)成為矢量
   vec2ind     轉(zhuǎn)換矢量成為下標(biāo)矢量14. 拓?fù)浜瘮?shù)
   gridtop     網(wǎng)絡(luò)層拓?fù)浜瘮?shù)
   hextop     六角層拓?fù)浜瘮?shù)
   randtop     隨機(jī)層拓?fù)浜瘮?shù)

關(guān)于MATLAB神經(jīng)網(wǎng)絡(luò)工具箱函數(shù)是什么就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI