溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析

發(fā)布時(shí)間:2021-09-14 09:54:38 來(lái)源:億速云 閱讀:125 作者:小新 欄目:開(kāi)發(fā)技術(shù)

小編給大家分享一下神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

人工神經(jīng)網(wǎng)絡(luò)需要一定的數(shù)學(xué)基礎(chǔ),但是一般來(lái)說(shuō)比較簡(jiǎn)單,簡(jiǎn)單的高數(shù)基礎(chǔ)即可,這里整理了一些所需要的最基礎(chǔ)的概念的理解,對(duì)于神經(jīng)網(wǎng)絡(luò)的入門,非?;A(chǔ)和重要,而且理解了之后,會(huì)發(fā)現(xiàn)介紹不需要在看,磨刀不誤砍柴工,強(qiáng)烈建議理解清楚之后在去使用諸如tensorflow這樣的利器。

自變量/因變量/函數(shù)

因?yàn)镋文文檔的閱讀時(shí)不可避免的接觸這些內(nèi)容,一般將英文也列出來(lái),盡量記住,閱讀時(shí)會(huì)大大提高速度。

神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析

導(dǎo)數(shù)

作為高數(shù)最為基礎(chǔ)的導(dǎo)數(shù)概念,這里不在贅述,簡(jiǎn)單烈一下內(nèi)容能夠大體理解即可, 借用一張圖形來(lái)進(jìn)行解釋: 

神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析

神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析

基本概念

導(dǎo)數(shù)/偏導(dǎo)數(shù)/方向?qū)?shù)/梯度,這四個(gè)概念無(wú)比重要,無(wú)比理解,簡(jiǎn)單整理如下,比如在理解BP算法有所困難時(shí)請(qǐng)以此四概念為中心重新學(xué)習(xí)相關(guān)部分高數(shù)內(nèi)容。

神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析

為何線性分類模型無(wú)法處理異或問(wèn)題

異或是計(jì)算機(jī)中非常簡(jiǎn)單的操作,而諸如感知機(jī)這樣的線性模型則無(wú)法解決異或問(wèn)題的分類。嚴(yán)格的證明可以參看Minsky的文章。

簡(jiǎn)單地來(lái)看,根據(jù)結(jié)果進(jìn)行分類,可以分為兩類(0/1),但是如果顯示在一個(gè)平面上,你會(huì)發(fā)現(xiàn)無(wú)法找到一條直線將這兩類結(jié)果直接分開(kāi),所以可以直觀地看出是線性分類模型連異或這種簡(jiǎn)單的分類都無(wú)法解決。

而這個(gè)悲傷的觀點(diǎn),早在1969年Minsky就曾經(jīng)在著名的Perceptron中已經(jīng)被詳細(xì)地證明了,從而帶來(lái)了后來(lái)人工智能長(zhǎng)達(dá)10年左右的冰凍期。這個(gè)問(wèn)題并非無(wú)解,使用兩層的感知機(jī)即可解決這種問(wèn)題,但是Minsky認(rèn)為,這將會(huì)帶來(lái)巨大的計(jì)算量而且沒(méi)有有效的學(xué)習(xí)算法,直到諸如BP等算法的出現(xiàn)。1986年,Rumelhart,Geoffrey Hinton和Ronald Williams所發(fā)表的Learning representations by back-propagating errors一文中引入了BP算法到神經(jīng)網(wǎng)絡(luò)模型之中,通過(guò)在神經(jīng)網(wǎng)絡(luò)中添加隱含層,同時(shí)將誤差進(jìn)行反向傳播,將糾錯(cuò)的運(yùn)算量下降到僅和神經(jīng)元數(shù)目成正比的程度,解決了感知機(jī)的異或分類問(wèn)題,同時(shí)為多層感知機(jī)的模型提供了學(xué)習(xí)算法。

回歸分析

在算法的入門時(shí)會(huì)學(xué)習(xí)使用線性回歸和邏輯回歸等,所以需要對(duì)回歸分析有一定的了解。回歸分析研究的是因變量和自變量之間的關(guān)系,在預(yù)測(cè)模型中被廣泛地應(yīng)用。自變量的個(gè)數(shù)/因變量的類型/回歸線的形狀都是需要考慮的,常見(jiàn)的回歸分析方式如下:

  • Linear Regression:線性回歸

  • Logistic Regression:邏輯回歸

  • Polynomial Regression:多項(xiàng)式回歸

  • Lasso Regression:套索回歸

  • ElasticNet Regression:ElasticNet回歸

以上是“神經(jīng)網(wǎng)絡(luò)中基礎(chǔ)概念的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對(duì)大家有所幫助,如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI