您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“tensorflow查看梯度方式是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“tensorflow查看梯度方式是什么”吧!
1. 為什么要查看梯度
對于初學(xué)者來說網(wǎng)絡(luò)經(jīng)常不收斂,loss很奇怪(就是不收斂),所以懷疑是反向傳播中梯度的問題
(1)求導(dǎo)之后的數(shù)(的絕對值)越來越?。ㄚ吔?),這就是梯度消失
(2)求導(dǎo)之后的數(shù)(的絕對值)越來越大(特別大,發(fā)散),這就是梯度爆炸
所以說呢,當(dāng)loss不正常時,可以看看梯度是否處于爆炸,或者是消失了,梯度爆炸的話,網(wǎng)絡(luò)中的W也會很大,人工控制一下(初始化的時候弄小點(diǎn)等等肯定還有其它方法,只是我不知道,知道的大神也可以稍微告訴我一下~~),要是梯度消失,可以試著用用resnet,densenet之類的
2. tensorflow中如何查看梯度
tf.gradients(y,x)這里的就是y對于x的導(dǎo)數(shù)(dy/dx),x和y一定要有關(guān)聯(lián)哦~
直接tf.gradients(y_, weight1)就可以了~
到此,相信大家對“tensorflow查看梯度方式是什么”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。