您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)TensorFlow的自動求導(dǎo)原理是什么,小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。
TensorFlow使用的求導(dǎo)方法稱為自動微分(Automatic Differentiation),它既不是符號求導(dǎo)也不是數(shù)值求導(dǎo),而類似于將兩者結(jié)合的產(chǎn)物。
最基本的原理就是鏈?zhǔn)椒▌t,關(guān)鍵思想是在基本操作(op)的水平上應(yīng)用符號求導(dǎo),并保持中間結(jié)果(grad)。
基本操作的符號求導(dǎo)定義在\tensorflow\python\ops\math_grad.py文件中,這個(gè)文件中的所有函數(shù)都用RegisterGradient裝飾器包裝了起來,這些函數(shù)都接受兩個(gè)參數(shù)op和grad,參數(shù)op是操作,第二個(gè)參數(shù)是grad是之前的梯度。
舉個(gè)例子:
補(bǔ)充:聊聊Tensorflow自動求導(dǎo)機(jī)制
在即時(shí)執(zhí)行模式下,Tensorflow引入tf.GradientTape()這個(gè)“求導(dǎo)記錄器”來實(shí)現(xiàn)自動求導(dǎo)。
import tensorflow as tf #定義變量 x = tf.Variable(initial_value = 3.) #在tf.GradientTape()的上下文內(nèi),所有計(jì)算步驟都會被記錄以用于求導(dǎo) with tf.GradientTape() as tape: #y = x^2 y = tf.square(x) #計(jì)算y關(guān)于x的導(dǎo)數(shù)(斜率,梯度) y_grad = tape.gradient(y,x) print([y,y_grad])
輸出:
[<tf.Tensor: shape=(), dtype=float32, numpy=9.0>, <tf.Tensor: shape=(), dtype=float32, numpy=6.0>]
關(guān)于“TensorFlow的自動求導(dǎo)原理是什么”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯(cuò),請把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。