#

激活函數(shù)

  • PyTorch中常用的激活函數(shù)的方法示例

    神經(jīng)網(wǎng)絡(luò)只是由兩個(gè)或多個(gè)線性網(wǎng)絡(luò)層疊加,并不能學(xué)到新的東西,簡單地堆疊網(wǎng)絡(luò)層,不經(jīng)過非線性激活函數(shù)激活,學(xué)到的仍然是線性關(guān)系。 但是加入激活函數(shù)可以學(xué)到非線性的關(guān)系,就具有更強(qiáng)的能力去進(jìn)行特征提取。

    作者:Steven·簡談
    2020-09-05 08:15:16