溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

什么是pytorch交叉熵?fù)p失函數(shù)

發(fā)布時間:2021-10-12 10:11:17 來源:億速云 閱讀:162 作者:iii 欄目:開發(fā)技術(shù)

本篇內(nèi)容主要講解“什么是pytorch交叉熵?fù)p失函數(shù)”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“什么是pytorch交叉熵?fù)p失函數(shù)”吧!

目錄
  • 1.交叉熵?fù)p失函數(shù)的推導(dǎo)

  • 2. 交叉熵?fù)p失函數(shù)的直觀理解

  • 3. 交叉熵?fù)p失函數(shù)的其它形式

說起交叉熵?fù)p失函數(shù)「Cross Entropy Loss」,腦海中立馬浮現(xiàn)出它的公式:

什么是pytorch交叉熵?fù)p失函數(shù)

我們已經(jīng)對這個交叉熵函數(shù)非常熟悉,大多數(shù)情況下都是直接拿來使用就好。但是它是怎么來的?為什么它能表征真實(shí)樣本標(biāo)簽和預(yù)測概率之間的差值?上面的交叉熵函數(shù)是否有其它變種?

1.交叉熵?fù)p失函數(shù)的推導(dǎo)

我們知道,在二分類問題模型:例如邏輯回歸「Logistic Regression」、神經(jīng)網(wǎng)絡(luò)「Neural Network」等,真實(shí)樣本的標(biāo)簽為 [0,1],分別表示負(fù)類和正類。模型的最后通常會經(jīng)過一個 Sigmoid 函數(shù),輸出一個概率值,這個概率值反映了預(yù)測為正類的可能性:概率越大,可能性越大。
Sigmoid 函數(shù)的表達(dá)式和圖形如下所示:

什么是pytorch交叉熵?fù)p失函數(shù)

什么是pytorch交叉熵?fù)p失函數(shù)

其中 s 是模型上一層的輸出,Sigmoid 函數(shù)有這樣的特點(diǎn):s = 0 時,g(s) = 0.5;s >> 0 時, g ≈ 1,s << 0 時,g ≈ 0。顯然,g(s) 將前一級的線性輸出映射到 [0,1] 之間的數(shù)值概率上。這里的 g(s) 就是交叉熵公式中的模型預(yù)測輸出 。

我們說了,預(yù)測輸出即 Sigmoid 函數(shù)的輸出表征了當(dāng)前樣本標(biāo)簽為 1 的概率:

什么是pytorch交叉熵?fù)p失函數(shù)

很明顯,當(dāng)前樣本標(biāo)簽為 0 的概率就可以表達(dá)成:

什么是pytorch交叉熵?fù)p失函數(shù)

重點(diǎn)來了,如果我們從極大似然性的角度出發(fā),把上面兩種情況整合到一起:

什么是pytorch交叉熵?fù)p失函數(shù)

不懂極大似然估計也沒關(guān)系。我們可以這么來看:

當(dāng)真實(shí)樣本標(biāo)簽 y = 0 時,上面式子第一項(xiàng)就為 1,概率等式轉(zhuǎn)化為:

什么是pytorch交叉熵?fù)p失函數(shù)

當(dāng)真實(shí)樣本標(biāo)簽 y = 1 時,上面式子第二項(xiàng)就為 1,概率等式轉(zhuǎn)化為:

什么是pytorch交叉熵?fù)p失函數(shù)

兩種情況下概率表達(dá)式跟之前的完全一致,只不過我們把兩種情況整合在一起了。

重點(diǎn)看一下整合之后的概率表達(dá)式,我們希望的是概率 P(y|x) 越大越好。首先,我們對 P(y|x) 引入 log 函數(shù),因?yàn)?log 運(yùn)算并不會影響函數(shù)本身的單調(diào)性。則有:

什么是pytorch交叉熵?fù)p失函數(shù)

我們希望 log P(y|x) 越大越好,反過來,只要 log P(y|x) 的負(fù)值 -log P(y|x) 越小就行了。那我們就可以引入損失函數(shù),且令 Loss = -log P(y|x)即可。則得到損失函數(shù)為:

什么是pytorch交叉熵?fù)p失函數(shù)

非常簡單,我們已經(jīng)推導(dǎo)出了單個樣本的損失函數(shù),是如果是計算 N 個樣本的總的損失函數(shù),只要將 N 個 Loss 疊加起來就可以了:

什么是pytorch交叉熵?fù)p失函數(shù)

這樣,我們已經(jīng)完整地實(shí)現(xiàn)了交叉熵?fù)p失函數(shù)的推導(dǎo)過程。

2. 交叉熵?fù)p失函數(shù)的直觀理解

我已經(jīng)知道了交叉熵?fù)p失函數(shù)的推導(dǎo)過程。但是能不能從更直觀的角度去理解這個表達(dá)式呢?而不是僅僅記住這個公式。好問題!接下來,我們從圖形的角度,分析交叉熵函數(shù),加深理解。

首先,還是寫出單個樣本的交叉熵?fù)p失函數(shù):

什么是pytorch交叉熵?fù)p失函數(shù)

我們知道,當(dāng) y = 1 時

什么是pytorch交叉熵?fù)p失函數(shù)

這時候,L 與預(yù)測輸出的關(guān)系如下圖所示:

什么是pytorch交叉熵?fù)p失函數(shù)

看了 L 的圖形,簡單明了!橫坐標(biāo)是預(yù)測輸出,縱坐標(biāo)是交叉熵?fù)p失函數(shù) L。顯然,預(yù)測輸出越接近真實(shí)樣本標(biāo)簽 1,損失函數(shù) L 越??;預(yù)測輸出越接近 0,L 越大。因此,函數(shù)的變化趨勢完全符合實(shí)際需要的情況。

當(dāng) y = 0 時:

什么是pytorch交叉熵?fù)p失函數(shù)

這時候,L 與預(yù)測輸出的關(guān)系如下圖所示:

什么是pytorch交叉熵?fù)p失函數(shù)

同樣,預(yù)測輸出越接近真實(shí)樣本標(biāo)簽 0,損失函數(shù) L 越小;預(yù)測函數(shù)越接近 1,L 越大。函數(shù)的變化趨勢也完全符合實(shí)際需要的情況。

從上面兩種圖,可以幫助我們對交叉熵?fù)p失函數(shù)有更直觀的理解。無論真實(shí)樣本標(biāo)簽 y 是 0 還是 1,L 都表征了預(yù)測輸出與 y 的差距。

另外,重點(diǎn)提一點(diǎn)的是,從圖形中我們可以發(fā)現(xiàn):預(yù)測輸出與 y 差得越多,L 的值越大,也就是說對當(dāng)前模型的 “ 懲罰 ” 越大,而且是非線性增大,是一種類似指數(shù)增長的級別。這是由 log 函數(shù)本身的特性所決定的。這樣的好處是模型會傾向于讓預(yù)測輸出更接近真實(shí)樣本標(biāo)簽 y。

3. 交叉熵?fù)p失函數(shù)的其它形式

什么?交叉熵?fù)p失函數(shù)還有其它形式?沒錯!我剛才介紹的是一個典型的形式。接下來我將從另一個角度推導(dǎo)新的交叉熵?fù)p失函數(shù)。

這種形式下假設(shè)真實(shí)樣本的標(biāo)簽為 +1 和 -1,分別表示正類和負(fù)類。有個已知的知識點(diǎn)是Sigmoid 函數(shù)具有如下性質(zhì):

什么是pytorch交叉熵?fù)p失函數(shù)

這個性質(zhì)我們先放在這,待會有用。

好了,我們之前說了 y = +1 時,下列等式成立:

什么是pytorch交叉熵?fù)p失函數(shù)

如果 y = -1 時,并引入 Sigmoid 函數(shù)的性質(zhì),下列等式成立:

什么是pytorch交叉熵?fù)p失函數(shù)

重點(diǎn)來了,因?yàn)?y 取值為 +1 或 -1,可以把 y 值帶入,將上面兩個式子整合到一起:

什么是pytorch交叉熵?fù)p失函數(shù)

這個比較好理解,分別令 y = +1 和 y = -1 就能得到上面兩個式子。

接下來,同樣引入 log 函數(shù),得到:

什么是pytorch交叉熵?fù)p失函數(shù)

要讓概率最大,反過來,只要其負(fù)數(shù)最小即可。那么就可以定義相應(yīng)的損失函數(shù)為:

什么是pytorch交叉熵?fù)p失函數(shù)

還記得 Sigmoid 函數(shù)的表達(dá)式吧?將 g(ys) 帶入:

什么是pytorch交叉熵?fù)p失函數(shù)

好咯,L 就是我要推導(dǎo)的交叉熵?fù)p失函數(shù)。如果是 N 個樣本,其交叉熵?fù)p失函數(shù)為:

什么是pytorch交叉熵?fù)p失函數(shù)

接下來,我們從圖形化直觀角度來看。當(dāng) y = +1 時:

什么是pytorch交叉熵?fù)p失函數(shù)

這時候,L 與上一層得分函數(shù) s 的關(guān)系如下圖所示:

什么是pytorch交叉熵?fù)p失函數(shù)

 橫坐標(biāo)是 s,縱坐標(biāo)是 L。顯然,s 越接近正無窮,損失函數(shù) L 越?。籹 越接近負(fù)無窮,L 越大。

另一方面,當(dāng) y = -1 時:

什么是pytorch交叉熵?fù)p失函數(shù)

這時候,L 與上一層得分函數(shù) s 的關(guān)系如下圖所示:

什么是pytorch交叉熵?fù)p失函數(shù)

同樣,s 越接近負(fù)無窮,損失函數(shù) L 越小;s 越接近正無窮,L 越大。

到此,相信大家對“什么是pytorch交叉熵?fù)p失函數(shù)”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI