溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

pytorch梯度裁剪的原理是什么

發(fā)布時間:2021-12-16 09:14:41 來源:億速云 閱讀:196 作者:iii 欄目:大數(shù)據(jù)

本篇內(nèi)容主要講解“pytorch梯度裁剪的原理是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學(xué)習(xí)“pytorch梯度裁剪的原理是什么”吧!

既然在BP過程中會產(chǎn)生梯度消失/爆炸(就是偏導(dǎo)無限接近0,導(dǎo)致長時記憶無法更新),那么最簡單粗暴的方法,設(shè)定閾值,當(dāng)梯度小于/大于閾值時,更新的梯度為閾值,如下圖所示:

1、梯度裁剪原理

pytorch梯度裁剪的原理是什么

優(yōu)點:簡單粗暴
缺點:很難找到滿意的閾值

2、nn.utils.clip_grad_norm(parameters, max_norm, norm_type=2)

這個函數(shù)是根據(jù)參數(shù)的范數(shù)來衡量的

Parameters:


    • parameters (Iterable[Variable]) – 一個基于變量的迭代器,會進(jìn)行歸一化(原文:an iterable of Variables that will have gradients normalized)

    • max_norm (float or int) – 梯度的最大范數(shù)

    • norm_type(float or int) – 規(guī)定范數(shù)的類型,默認(rèn)為L2

Returns:參數(shù)的總體范數(shù)(作為單個向量來看)

到此,相信大家對“pytorch梯度裁剪的原理是什么”有了更深的了解,不妨來實際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI