溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

TensorFlow中讀取圖像數(shù)據(jù)的方式有哪些

發(fā)布時(shí)間:2021-08-20 19:57:28 來源:億速云 閱讀:157 作者:chen 欄目:大數(shù)據(jù)

本篇內(nèi)容主要講解“TensorFlow中讀取圖像數(shù)據(jù)的方式有哪些”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“TensorFlow中讀取圖像數(shù)據(jù)的方式有哪些”吧!

處理單張圖片

我們訓(xùn)練完模型之后,常常要用圖片測試,有的時(shí)候,我們并不需要對很多圖像做測試,可能就是幾張甚至一張。這種情況下沒有必要用隊(duì)列機(jī)制。

import tensorflow as tf

import matplotlib.pyplot as plt

def read_image(file_name):

img = tf.read_file(filename=file_name) #默認(rèn)讀取格式為uint8

print("img 的類型是",type(img));

img = tf.image.decode_jpeg(img,channels=0) # channels 為1得到的是灰度圖,為0則按照圖片格式來讀

return img

def main( ):

with tf.device("/cpu:0"):

img_path='./1.jpg'

img=read_image(img_path)

with tf.Session() as sess:

image_numpy=sess.run(img)

print(image_numpy)

print(image_numpy.dtype)

print(image_numpy.shape)

plt.imshow(image_numpy)

plt.show()

if __name__=="__main__":

main()

img_path是文件所在地址包括文件名稱,地址用相對地址或者絕對地址都行
輸出結(jié)果為:

img 的類型是 <class 'tensorflow.python.framework.ops.Tensor'>

    [[[196 219 209]

    [196 219 209]

    [196 219 209]

    ...

    [[ 71 106 42]

    [ 59 89 39]

    [ 34 63 19]

    ...

    [ 21 52 46]

    [ 15 45 43]

    [ 22 50 53]]]

    uint8

    (675, 1200, 3)

TensorFlow中讀取圖像數(shù)據(jù)的方式有哪些

和tf.read_file用法相似的函數(shù)還有tf.gfile.FastGFile  tf.gfile.GFile,只是要指定讀取方式是'r' 還是'rb' 。

需要讀取大量圖像用于訓(xùn)練

這種情況就需要使用Tensorflow隊(duì)列機(jī)制。首先是獲得每張圖片的路徑,把他們都放進(jìn)一個(gè)list里面,然后用string_input_producer創(chuàng)建隊(duì)列,再用tf.WholeFileReader讀取。具體請看下例:

def get_image_batch(data_file,batch_size):

data_names=[os.path.join(data_file,k) for k in os.listdir(data_file)]

#這個(gè)num_epochs函數(shù)在整個(gè)Graph是local Variable,所以在sess.run全局變量的時(shí)候也要加上局部變量。 filenames_queue=tf.train.string_input_producer(data_names,num_epochs=50,shuffle=True,capacity=512)

reader=tf.WholeFileReader()

_,img_bytes=reader.read(filenames_queue)

image=tf.image.decode_png(img_bytes,channels=1) #讀取的是什么格式,就decode什么格式

#解碼成單通道的,并且獲得的結(jié)果的shape是[?, ?,1],也就是Graph不知道圖像的大小,需要set_shape

image.set_shape([180,180,1]) #set到原本已知圖像的大小?;蛘咧苯油ㄟ^tf.image.resize_images

image=tf.image.convert_image_dtype(image,tf.float32)

#預(yù)處理 下面的一句代碼可以換成自己想使用的預(yù)處理方式

#image=tf.divide(image,255.0)

return tf.train.batch([image],batch_size)

這里的date_file是指文件夾所在的路徑,不包括文件名。第一句是遍歷指定目錄下的文件名稱,存放到一個(gè)list中。當(dāng)然這個(gè)做法有很多種方法,比如glob.glob,或者tf.train.match_filename_once全部代碼如下:

import tensorflow as tf

    import os

    def read_image(data_file,batch_size):

    data_names=[os.path.join(data_file,k) for k in os.listdir(data_file)]

    filenames_queue=tf.train.string_input_producer(data_names,num_epochs=5,shuffle=True,capacity=30)

    reader=tf.WholeFileReader()

    _,img_bytes=reader.read(filenames_queue)

    image=tf.image.decode_jpeg(img_bytes,channels=1)

    image=tf.image.resize_images(image,(180,180))

    image=tf.image.convert_image_dtype(image,tf.float32)

    return tf.train.batch([image],batch_size)

    def main( ):

    img_path=r'F:\dataSet\WIDER\WIDER_train\images\6--Funeral' #本地的一個(gè)數(shù)據(jù)集目錄,有足夠的圖像

    img=read_image(img_path,batch_size=10)

    image=img[0] #取出每個(gè)batch的第一個(gè)數(shù)據(jù)

    print(image)

    init=[tf.global_variables_initializer(),tf.local_variables_initializer()]

    with tf.Session() as sess:

    sess.run(init)

    coord = tf.train.Coordinator()

    threads = tf.train.start_queue_runners(sess=sess,coord=coord)

    try:

    while not coord.should_stop():

    # 省略對image的使用,如果僅僅執(zhí)行下面的代碼,image始終是同一個(gè)image。我們需要

    # sess.run來實(shí)現(xiàn)image的迭代,感謝monk1992的指正

    print(image.shape)

    except tf.errors.OutOfRangeError:

    print('read done')

    finally:

    coord.request_stop()

    coord.join(threads)


    if __name__=="__main__":

    main()

這段代碼可以說寫的很是規(guī)整了。注意到init里面有對local變量的初始化,并且因?yàn)橛玫搅岁?duì)列,當(dāng)然要告訴電腦什么時(shí)候隊(duì)列開始, tf.train.Coordinator 和 tf.train.start_queue_runners 就是兩個(gè)管理隊(duì)列的類,用法如程序所示。

輸出如下:

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

(180, 180, 1)

與 tf.train.string_input_producer相似的函數(shù)是 tf.train.slice_input_producer。 tf.train.slice_input_producer和tf.train.string_input_producer的第一個(gè)參數(shù)形式不一樣。等有時(shí)間再做一個(gè)二者比較的博客

對TFRecorder解碼獲得圖像數(shù)據(jù)

其實(shí)這塊和上一種方式差不多的,更重要的是怎么生成TFRecorder文件,這一部分我會(huì)補(bǔ)充到另一篇博客上。

仍然使用 tf.train.string_input_producer。

import tensorflow as tf

import matplotlib.pyplot as plt

import os

import cv2

import numpy as np

import glob


def read_image(data_file,batch_size):

files_path=glob.glob(data_file)

queue=tf.train.string_input_producer(files_path,num_epochs=None)

reader = tf.TFRecordReader()

print(queue)

_, serialized_example = reader.read(queue)

features = tf.parse_single_example(

serialized_example,

features={

'image_raw': tf.FixedLenFeature([], tf.string),

'label_raw': tf.FixedLenFeature([], tf.string),

})

image = tf.decode_raw(features['image_raw'], tf.uint8)

image = tf.cast(image, tf.float32)

image.set_shape((12*12*3))

label = tf.decode_raw(features['label_raw'], tf.float32)

label.set_shape((2))

# 預(yù)處理部分省略,大家可以自己根據(jù)需要添加

return tf.train.batch([image,label],batch_size=batch_size,num_threads=4,capacity=5*batch_size)


def main( ):

img_path=r'F:\python\MTCNN_by_myself\prepare_data\pnet*.tfrecords' #本地的幾個(gè)tf文件

img,label=read_image(img_path,batch_size=10)

image=img[0]

init=[tf.global_variables_initializer(),tf.local_variables_initializer()]

with tf.Session() as sess:

sess.run(init)

coord = tf.train.Coordinator()

threads = tf.train.start_queue_runners(sess=sess,coord=coord)

try:

while not coord.should_stop():

# 省略對image的使用,如果僅僅執(zhí)行下面的代碼,image始終是同一個(gè)image。我們需要

# sess.run來實(shí)現(xiàn)image的迭代,感謝monk1992的指正

print(image.shape)

except tf.errors.OutOfRangeError:

print('read done')

finally:

coord.request_stop()

coord.join(threads)



if __name__=="__main__":

main()

在read_image函數(shù)中,先使用glob函數(shù)獲得了存放tfrecord文件的列表,然后根據(jù)TFRecord文件是如何存的就如何parse,再set_shape

這里有必要提醒下parse的方式。我們看到這里用的是tf.decode_raw ,因?yàn)樽鯰FRecord是將圖像數(shù)據(jù)string化了,數(shù)據(jù)是串行的,丟失了空間結(jié)果。從features中取出image和label的數(shù)據(jù),這時(shí)就要用 tf.decode_raw  解碼,得到的結(jié)果當(dāng)然也是串行的了,所以set_shape 成一個(gè)串行的,再reshape。這種方式是取決于你的編碼TFRecord方式的。再舉一種例子:

reader=tf.TFRecordReader()

_,serialized_example=reader.read(file_name_queue)

features = tf.parse_single_example(serialized_example, features={

'data': tf.FixedLenFeature([256,256], tf.float32),

'label': tf.FixedLenFeature([], tf.int64),

'id': tf.FixedLenFeature([], tf.int64)

})

img = features['data']

label =features['label']

id = features['id']

這個(gè)時(shí)候就不需要任何解碼了。因?yàn)樽鯰FRecord的方式就是直接把圖像數(shù)據(jù)append進(jìn)去了。

到此,相信大家對“TensorFlow中讀取圖像數(shù)據(jù)的方式有哪些”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI