您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“怎么調(diào)試TensorFlow”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“怎么調(diào)試TensorFlow”吧!
TensorFlow從誕生以來就一直在深度學(xué)習(xí)框架中穩(wěn)居老大的位置,雖然自從2018年12月PyTorch 1.0 stable版本正式發(fā)布以來,很快減小了差距,但是也難以超越。
TensorFlow的強(qiáng)項(xiàng)在于部署(包括TensorFlow Lite在移動(dòng)端部署)和運(yùn)行效率,另外對各種operation的支持特別齊全,基本上你能想到的算子都已經(jīng)實(shí)現(xiàn)好了,直接調(diào)用就好。除此之外,Google Brain的各項(xiàng)前沿研究,以及現(xiàn)在DeepMind的很多研究,開源代碼肯定都是基于TensorFlow,比如現(xiàn)在很火的AutoML技術(shù)等等,所以成為No.1也是自然而然。
但是又不得不吐槽其調(diào)試功能,真是太難用了。這也直接導(dǎo)致了TensorFlow的學(xué)習(xí)曲線異常之陡,和vim的類似,學(xué)起來很難很痛苦,但是學(xué)好之后,那是相當(dāng)?shù)厮?/p>
那么,TensorFlow怎么調(diào)試呢?使用斷點(diǎn)還是print?亦或是高大上的tfdbg?都不是。
由于TensorFlow靜態(tài)圖的設(shè)計(jì)(eager模式除外,這個(gè)后面單獨(dú)討論),設(shè)置斷點(diǎn)根本無法獲取實(shí)際tensor的值,具體取值都在后臺以C++的方式執(zhí)行。那print呢?也只能打印出tensor的shape信息。tfdbg,這個(gè)官方開發(fā)的專用工具該行了吧?不過我建議還是不要嘗試了,不僅要一點(diǎn)一點(diǎn)敲命令,我在debug大型程序的時(shí)候,直接卡死。
對了,還有一種暴力方法,我最開始的時(shí)候在使用,就是把tensor拉出來sess.run一把,這樣的確可以得到tensor運(yùn)行的具體值,但是每次要手動(dòng)改,很麻煩。
好了,神器要出來了:tf.Print. 在老版本的TensorFlow中可以這么用,非常方便:
x = tf.Print(x,[x, x,shape, x[0], …], message=“x debug info”, summarize=100)
其中,x是需要打印的tensor,注意第一個(gè)輸入是x和輸出相同,但其實(shí)也可以不同,做一些操作,但一般debug不需要,所以等式左邊的輸出也是x.
第二個(gè)輸入在方括號內(nèi)表示需要打印的東西,可以是tensor x的具體值,或者是其shape,slice,甚至是函數(shù)。
第三個(gè)輸入message用來標(biāo)識這一處打印,可以自定義字符串。
最后的summarize控制輸出元素的數(shù)量,比如100就輸出x的前100個(gè)元素。
對于新版的TensorFlow,使用tf.print,語法如下:
print_op = tf.print(x)
withtf.control_dependencies([print_op]):
out = tf.add(x, x)
sess.run(out)
很方便吧?
雖然不如直接在PyCharm中設(shè)置斷點(diǎn)方便,但能把tensor打印出來定位問題也就容易多了。當(dāng)然,如果是學(xué)習(xí)代碼,想單步跟蹤,建議使用eager模式,這就和PyTorch的方式非常相近了,當(dāng)然,犧牲的是運(yùn)行效率。
到此,相信大家對“怎么調(diào)試TensorFlow”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。