溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

tensorflow之內(nèi)存暴漲問題的示例分析

發(fā)布時間:2021-08-23 10:31:57 來源:億速云 閱讀:175 作者:小新 欄目:開發(fā)技術(shù)

這篇文章主要介紹tensorflow之內(nèi)存暴漲問題的示例分析,文中介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們一定要看完!

在用tensorflow實現(xiàn)一些模型的時候,有時候我們在運行程序的時候,會發(fā)現(xiàn)程序占用的內(nèi)存在不斷增長。最后內(nèi)存溢出,程序被kill掉了。

這個問題,其實有兩個可能性。一個是比較常見,同時也是很難發(fā)現(xiàn)的。這個問題的解決,需要我們知道tensorflow在構(gòu)圖的時候,是沒有所謂的臨時變量的,只要有operator。那么tensorflow就會在構(gòu)建的圖中增加這個operator所代表的節(jié)點。所以,在運行程序的過程中,內(nèi)存不斷增長的原因就是在模型訓(xùn)練迭代的過程中,tensorflow一直在幫你增加圖的節(jié)點。導(dǎo)致內(nèi)存占用越來越多。

那么什么情況下就會像上面說的那樣呢?我們舉個例子:

import tensorflow as tf

x = tf.Variable(tf.constant(1))
y = tf.constant(2)
sess = tf.Session()
sess.run(tf.global_variables_initializer())

while True:
 print(sess.run(x+y))

如果你運行上面這段代碼,會發(fā)現(xiàn)在運行的過程中,內(nèi)存占用越來越大。原因就在于sess.run(x+y)這個語句。我們知道在tensorflow中,所有的操作都是graph的節(jié)點。而在迭代的過程中,x+y這個operator(操作)是匿名的,所以它會不斷地重復(fù),在graph中創(chuàng)建節(jié)點,導(dǎo)致內(nèi)存占用越來越大。

所以要對上面的代碼進(jìn)行修改:

z = x+y
while True:
 print(sess.run(z))

這樣就不會出現(xiàn)問題了。

上面只是一個簡單的例子,我們可以很快發(fā)現(xiàn)問題。但是有時候我們的模型比較復(fù)雜,很難判斷是否在迭代的過程中一直在增加節(jié)點。那怎么辦呢?

其實在tensorflow里面有個函數(shù)叫做:

sess.graph.finalize()

只要每一次構(gòu)圖完成后,調(diào)用這個函數(shù)。然后運行程序,如果你的程序在運行的過程中還一直新建節(jié)點,這個函數(shù)就會檢測到,然后就會報錯。這樣你就知道你的程序中一定有不合理的地方。

另一個導(dǎo)致內(nèi)存暴漲的原因是,數(shù)據(jù)的加載問題。tensorflow現(xiàn)在有一個API接口,tf.data.Dataset 。這個接口里面有個函數(shù)叫做cache(filename)。cache函數(shù)的作用是將加載進(jìn)來的數(shù)據(jù)存放到filename指定的地方。但是如果我們沒有指定filename,數(shù)據(jù)就是一直存儲在內(nèi)存中。所以,隨著迭代次數(shù)的增加,存儲在內(nèi)存中的數(shù)據(jù)越來越多,就會導(dǎo)致內(nèi)存暴漲。所以要么不要使用這個函數(shù),要么就要記得添加filename參數(shù)。

以上是“tensorflow之內(nèi)存暴漲問題的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI