您好,登錄后才能下訂單哦!
本篇文章為大家展示了使用Tensorflow怎么實現(xiàn)一個梯度裁剪功能,內(nèi)容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細(xì)介紹希望你能有所收獲。
tensorflow中的梯度計算和更新
梯度消失(gradient explosion)和梯度爆炸(gradients vanishing)
compute_gradients
apply_gradients
compute_gradients
對于compute_gradients方法,計算var_list中參數(shù)的梯度,使得loss變小。默認(rèn)情況下,var_list為GraphKeys.TRAINABLE_VARIABLES中的所有參數(shù)。
compute_gradients方法返回由多個(gradients, variable)二元組組成的列表。
compute_gradients( loss, var_list=None, gate_gradients=GATE_OP, aggregation_method=None, colocate_gradients_with_ops=False, grad_loss=None )
apply_gradients
對于apply_gradients方法,根據(jù)compute_gradients的返回結(jié)果對參數(shù)進行更新
apply_gradients( grads_and_vars, global_step=None, name=None )
梯度裁剪(Gradient Clipping)
tensorflow中裁剪梯度的幾種方式
方法一tf.clip_by_value
def clip_by_value(t, clip_value_min, clip_value_max, name=None):
其中,t為一個張量,clip_by_value返回一個與t的type相同、shape相同的張量,但是新tensor中的值被裁剪到了clip_value_min和clip_value_max之間。
方法二:tf.clip_by_global_norm
def clip_by_global_norm(t_list, clip_norm, use_norm=None, name=None):
其中,t_list為A tuple or list of mixed Tensors, IndexedSlices, or None。clip_norm為clipping ratio,use_norm指定global_norm,如果use_norm為None,則按global_norm = sqrt(sum([l2norm(t)**2 for t in t_list]))計算global_norm。
最終,梯度的裁剪方式為
可知,如果clip_norm > global_norm, 則不對梯度進行裁剪,否則對梯度進行縮放。
scale = clip_norm * math_ops.minimum( 1.0 / use_norm, constant_op.constant(1.0, dtype=use_norm.dtype) / clip_norm)
方法的返回值為裁剪后的梯度列表list_clipped和global_norm
示例代碼
optimizer = tf.train.AdamOptimizer(learning_rate) gradients, v = zip(*optimizer.compute_gradients(loss)) gradients, _ = tf.clip_by_global_norm(gradients, grad_clip) updates = optimizer.apply_gradients(zip(gradients, v),global_step=global_step)
方法三tf.clip_by_average_norm
def clip_by_average_norm(t, clip_norm, name=None):
t為張量,clip_norm為maximum clipping value
裁剪方式如下,
其中,avg_norm=l2norm_avg(t)
方法四:tf.clip_by_norm
def clip_by_norm(t, clip_norm, axes=None, name=None):
t為張量,clip_norm為maximum clipping value
裁剪方式為
示例代碼
optimizer = tf.train.AdamOptimizer(learning_rate, beta1=0.5) grads = optimizer.compute_gradients(cost) for i, (g, v) in enumerate(grads): if g is not None: grads[i] = (tf.clip_by_norm(g, 5), v) # clip gradients train_op = optimizer.apply_gradients(grads)
上述內(nèi)容就是使用Tensorflow怎么實現(xiàn)一個梯度裁剪功能,你們學(xué)到知識或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識儲備,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。