溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

tensorflow將圖片保存為tfrecord和tfrecord的讀取方式

發(fā)布時間:2020-09-17 16:31:04 來源:腳本之家 閱讀:547 作者:修煉之路 欄目:開發(fā)技術

tensorflow官方提供了3種方法來讀取數(shù)據(jù):

預加載數(shù)據(jù)(preloaded data):在TensorFlow圖中定義常量或變量來保存所有的數(shù)據(jù),適用于數(shù)據(jù)量不太大的情況。填充數(shù)據(jù)(feeding):通過Python產(chǎn)生數(shù)據(jù),然后再把數(shù)據(jù)填充到后端。

從文件讀取數(shù)據(jù)(reading from file):從文件中直接讀取,然后通過隊列管理器從文件中讀取數(shù)據(jù)。

本文主要介紹第三種方法,通過tfrecord文件來保存和讀取數(shù)據(jù),對于前兩種讀取數(shù)據(jù)的方式也會進行一個簡單的介紹。

項目下載github地址:https://github.com/steelOneself/tensorflow_learn/tree/master/tf_records_writer_read

一、預加載數(shù)據(jù)

  a = tf.constant([1,2,3])
  b = tf.constant([4,5,6])
  c = tf.add(a,b)
  with tf.Session() as sess:
    print(sess.run(c))#[5 7 9]

這種方式加載數(shù)據(jù)比較簡單,它是直接將數(shù)據(jù)嵌入在數(shù)據(jù)流圖中,當訓練數(shù)據(jù)較大時,比較消耗內(nèi)存。

二、填充數(shù)據(jù)

通過先定義placeholder然后再通過feed_dict來喂養(yǎng)數(shù)據(jù),這種方式在TensorFlow中使用的也是比較多的,但是也存在數(shù)據(jù)量大時比較消耗內(nèi)存的缺點,下面介紹一種更高效的數(shù)據(jù)讀取方式,通過tfrecord文件來讀取數(shù)據(jù)。

  x = tf.placeholder(tf.int16)
  y = tf.placeholder(tf.int16)
  z = tf.add(x,y)
  with tf.Session() as sess:
    print(sess.run(z,feed_dict={x:[1,2,3],y:[4,5,6]}))
    #[5 7 9]

三、從文件讀取數(shù)據(jù)

通過slim來實現(xiàn)將圖片保存為tfrecord文件和tfrecord文件的讀取,slim是基于TensorFlow的一個更高級別的封裝模型,通過slim來編程可以實現(xiàn)更高效率和更簡潔的代碼。

在本次實驗中使用的數(shù)據(jù)集是kaggle的dog vs cat,數(shù)據(jù)集下載地址:https://www.kaggle.com/c/dogs-vs-cats/data

1、tfrecord文件的保存

a、參數(shù)設置

dataset_dir_path:訓練集圖片存放的上級目錄(train下還有一個train目錄用來存放圖片),在dog vs cat數(shù)據(jù)集中,dog和cat類的區(qū)別是依靠圖片的名稱,如果你的數(shù)據(jù)集通過文件夾的名稱來劃分圖片類標的,可能需要對代碼進行部分修改。

label_name_to_num:字符串類標與數(shù)字類標的對應關系,在將圖片保存為tfrecord文件的時候,需要將字符串轉為整數(shù)類標0和1,方便后的訓練。

label_num_to_name:數(shù)字類標與字符串類標的對應關系。

val_size:驗證集在訓練集中所占的比例,訓練集一共有25000張圖片,用20000張來訓練,5000張來進行驗證。

batch_size:在讀取tfrecord文件的時候,每次讀取圖片的數(shù)量。

#數(shù)據(jù)所在的目錄路徑
dataset_dir_path = "D:/dataset/kaggle/cat_or_dog/train"
#類標名稱和數(shù)字的對應關系
label_name_to_num = {"cat":0,"dog":1}
label_num_to_name = {value:key for key,value in label_name_to_num.items()}
#設置驗證集占整個數(shù)據(jù)集的比例
val_size = 0.2
batch_size = 1

b、獲取訓練集所有的圖片路徑

獲取訓練目錄下所有的dog和cat的圖片路徑,將它們分開保存,便于后面訓練集和驗證集數(shù)據(jù)的劃分,保證每類圖片在所占的比例相同。

 #獲取文件所在路徑
 dataset_dir = os.path.join(dataset_dir,split_name)
 #遍歷目錄下的所有圖片
 for filename in os.listdir(dataset_dir):
   #獲取文件的路徑
   file_path = os.path.join(dataset_dir,filename)
   if file_path.endswith("jpg") and os.path.exists(file_path):
     #獲取類別的名稱
     label_name = filename.split(".")[0]
     if label_name == "cat":
       cat_img_paths.append(file_path)
     elif label_name == "dog":
       dog_img_paths.append(file_path)
 return cat_img_paths,dog_img_paths

c、設置需要保存的圖片信息

對于訓練集的圖片主要保存圖片的字節(jié)數(shù)據(jù)、圖片的格式、圖片的標簽、圖片的高和寬,測試集保存為tfrecord文件的時候需要保存圖片的名稱,因為在提交數(shù)據(jù)的時候需要用到圖片的名稱信息。在保存圖片信息的時候,需要先將這些信息轉換為byte數(shù)據(jù)才能寫入到tfrecord文件中。

def int64_feature(values):
 if not isinstance(values, (tuple, list)):
  values = [values]
 return tf.train.Feature(int64_list=tf.train.Int64List(value=values))
 
def bytes_feature(values):
 return tf.train.Feature(bytes_list=tf.train.BytesList(value=[values]))
 
 
#將圖片信息轉換為tfrecords可以保存的序列化信息
def image_to_tfexample(split_name,image_data, image_format, height, width, img_info):
  '''
  :param split_name: train或val或test
  :param image_data: 圖片的二進制數(shù)據(jù)
  :param image_format: 圖片的格式
  :param height: 圖片的高
  :param width: 圖片的寬
  :param img_info: 圖片的標簽或圖片的名稱,當split_name為test時,img_info為圖片的名稱否則為圖片標簽
  :return:
  '''
  if split_name == "test":
    return tf.train.Example(features=tf.train.Features(feature={
       'image/encoded': bytes_feature(image_data),
       'image/format': bytes_feature(image_format),
       'image/img_name': bytes_feature(img_info),
       'image/height': int64_feature(height),
       'image/width': int64_feature(width),
     }))
  else:
     return tf.train.Example(features=tf.train.Features(feature={
       'image/encoded': bytes_feature(image_data),
       'image/format': bytes_feature(image_format),
       'image/label': int64_feature(img_info),
       'image/height': int64_feature(height),
       'image/width': int64_feature(width),
     }))

d、保存tfrecord文件

主要是通過TFRecordWriter來保存tfrecord文件,在將圖片信息保存為tfrecord文件的時候,需要先將圖片信息序列化為字符串才能進行寫入。ImageReader類可以將圖片字節(jié)數(shù)據(jù)解碼為指定格式的圖片,獲取圖片的寬和高信息。

_get_dataset_filename函數(shù)是通過數(shù)據(jù)集的名稱和split_name的名稱來組合獲取tfrecord文件的名稱,tfrecord名稱如下:

tensorflow將圖片保存為tfrecord和tfrecord的讀取方式

def _convert_tfrecord_dataset(split_name, filenames, label_name_to_id, 
dataset_dir, tfrecord_filename, _NUM_SHARDS):
  '''
  :param split_name:train或val或test
  :param filenames:圖片的路徑列表
  :param label_name_to_id:標簽名與數(shù)字標簽的對應關系
  :param dataset_dir:數(shù)據(jù)存放的目錄
  :param tfrecord_filename:文件保存的前綴名
  :param _NUM_SHARDS:將整個數(shù)據(jù)集分為幾個文件
  :return:
  '''
  assert split_name in ['train', 'val','test']
  #計算平均每一個tfrecords文件保存多少張圖片
  num_per_shard = int(math.ceil(len(filenames) / float(_NUM_SHARDS)))
  with tf.Graph().as_default():
    image_reader = ImageReader()
    with tf.Session('') as sess:
      for shard_id in range(_NUM_SHARDS):
        #獲取tfrecord文件的名稱
        output_filename = _get_dataset_filename(
            dataset_dir, split_name, shard_id,
 tfrecord_filename = tfrecord_filename, _NUM_SHARDS = _NUM_SHARDS)
        #寫tfrecords文件
        with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer:
          start_ndx = shard_id * num_per_shard
          end_ndx = min((shard_id+1) * num_per_shard, len(filenames))
          for i in range(start_ndx, end_ndx):
            #更新控制臺中已經(jīng)完成的圖片數(shù)量
            sys.stdout.write('\r>> Converting image %d/%d shard %d' % (
              i+1, len(filenames), shard_id))
            sys.stdout.flush()
            #讀取圖片,將圖片數(shù)據(jù)讀取為bytes
            image_data = tf.gfile.FastGFile(filenames[i], 'rb').read()
            #獲取圖片的高和寬
            height, width = image_reader.read_image_dims(sess, image_data)
            #獲取路徑中的圖片名稱
            img_name = os.path.basename(filenames[i])
            if split_name == "test":
              #需要將圖片名稱轉換為二進制
              example = image_to_tfexample(
                split_name,image_data, b'jpg', height, width, img_name.encode())
              tfrecord_writer.write(example.SerializeToString())
            else:
              #獲取圖片的類別
              class_name = img_name.split(".")[0]
              label_id = label_name_to_id[class_name]
              example = image_to_tfexample(
                split_name,image_data, b'jpg', height, width, label_id)
              tfrecord_writer.write(example.SerializeToString())
        sys.stdout.write('\n')
        sys.stdout.flush()

e、將數(shù)據(jù)集分為驗證集和訓練集保存為tfrecord文件

先獲取數(shù)據(jù)集中所有圖片的路徑和圖片的標簽信息,將不同類別的圖片分為訓練集和驗證集,并保證訓練集和驗證集中不同類別的圖片數(shù)量保持相同,在保存為tfrecord文件之前,打亂所有圖片的路徑。將訓練集分為了2個tfrecord文件,驗證集保存為1個tfrecord文件。

#生成tfrecord文件
def generate_tfreocrd():
  #獲取目錄下所有的貓和狗圖片的路徑
  cat_img_paths,dog_img_paths = _get_dateset_imgPaths(dataset_dir_path,"train")
  #打亂路徑列表的順序
  np.random.shuffle(cat_img_paths)
  np.random.shuffle(dog_img_paths)
  #計算不同類別驗證集所占的圖片數(shù)量
  cat_val_num = int(len(cat_img_paths) * val_size)
  dog_val_num = int(len(dog_img_paths) * val_size)
  #將所有的圖片路徑分為訓練集和驗證集
  train_img_paths = cat_img_paths[cat_val_num:]
  val_img_paths = cat_img_paths[:cat_val_num]
  train_img_paths.extend(dog_img_paths[dog_val_num:])
  val_img_paths.extend(dog_img_paths[:dog_val_num])
  #打亂訓練集和驗證集的順序
  np.random.shuffle(train_img_paths)
  np.random.shuffle(val_img_paths)
  #將訓練集保存為tfrecord文件
  _convert_tfrecord_dataset("train",train_img_paths,label_name_to_num,dataset_dir_path,"catVSdog",2)
  #將驗證集保存為tfrecord文件
  _convert_tfrecord_dataset("val",val_img_paths,label_name_to_num,dataset_dir_path,"catVSdog",1)

通過控制臺你能夠看到tfrecord文件的保存進度

tensorflow將圖片保存為tfrecord和tfrecord的讀取方式

2、從tfrecord文件中讀取數(shù)據(jù)

a、讀取tfrecord文件,將數(shù)據(jù)轉換為dataset

通過TFRecordReader來讀取tfrecord文件,在讀取tfrecord文件時需要通過tf.FixedLenFeature來反序列化存儲的圖片信息,這里我們只讀取圖片數(shù)據(jù)和圖片的標簽,再通過slim模塊將圖片數(shù)據(jù)和標簽信息存儲為一個dataset。

 #創(chuàng)建一個tfrecord讀文件對象
  reader = tf.TFRecordReader
    keys_to_feature = {
      "image/encoded":tf.FixedLenFeature((),tf.string,default_value=""),
      "image/format":tf.FixedLenFeature((),tf.string,default_value="jpg"),
     "image/label":tf.FixedLenFeature([],tf.int64,default_value=tf.zeros([],tf.int64))
    }
    items_to_handles = {
      "image":slim.tfexample_decoder.Image(),
      "label":slim.tfexample_decoder.Tensor("image/label")
    }
    items_to_descriptions = {
      "image":"a 3-channel RGB image",
      "img_name":"a image label"
    }
    #創(chuàng)建一個tfrecoder解析對象
    decoder = slim.tfexample_decoder.TFExampleDecoder(keys_to_feature,items_to_handles)
    #讀取所有的tfrecord文件,創(chuàng)建數(shù)據(jù)集
    dataset = slim.dataset.Dataset(
      data_sources = tfrecord_paths,
      decoder = decoder,
      reader = reader,
      num_readers = 4,
      num_samples = num_imgs,
      num_classes = num_classes,
      labels_to_name = labels_to_name,
      items_to_descriptions = items_to_descriptions
    )

b、獲取batch數(shù)據(jù)

preprocessing_image對圖片進行預處理,對圖片進行數(shù)據(jù)增強,輸出后的圖片尺寸由height和width參數(shù)決定,固定圖片的尺寸方便CNN的模型訓練。

def load_batch(split_name,dataset,batch_size,height,width):
  data_provider = slim.dataset_data_provider.DatasetDataProvider(
    dataset,
    common_queue_capacity = 24 + 3 * batch_size,
    common_queue_min = 24
  )
    raw_image,img_label = data_provider.get(["image","label"])
    #Perform the correct preprocessing for this image depending if it is training or evaluating
    image = preprocess_image(raw_image, height, width,True)
    #As for the raw images, we just do a simple reshape to batch it up
    raw_image = tf.expand_dims(raw_image, 0)
    raw_image = tf.image.resize_nearest_neighbor(raw_image, [height, width])
    raw_image = tf.squeeze(raw_image)
    #獲取一個batch數(shù)據(jù)
    images,raw_image,labels = tf.train.batch(
      [image,raw_image,img_label],
      batch_size=batch_size,
      num_threads=4,
      capacity=4*batch_size,
      allow_smaller_final_batch=True
    )
    return images,raw_image,labels

c、讀取tfrecord文件

#讀取tfrecord文件
def read_tfrecord():
  #從tfreocrd文件中讀取數(shù)據(jù)
  train_dataset = get_dataset_by_tfrecords("train",dataset_dir_path,"catVSdog",2,label_num_to_name)
  images,raw_images,labels = load_batch("train",train_dataset,batch_size,227,227)
  with tf.Session() as sess:
    threads = tf.train.start_queue_runners(sess)
    for i in range(6):
      train_img,train_label = sess.run([raw_images,labels])
      plt.subplot(2,3,i+1)
      plt.imshow(np.array(train_img[0]))
      plt.title("image label:%s"%str(label_num_to_name[train_label[0]]))
    plt.show()

讀取訓練集的tfrecord文件,只從tfrecord文件中獲取了圖片數(shù)據(jù)和圖片的標簽,images表示的是預處理后的圖片,raw_images表示的是沒有經(jīng)過預處理的圖片。

tensorflow將圖片保存為tfrecord和tfrecord的讀取方式

以上這篇tensorflow將圖片保存為tfrecord和tfrecord的讀取方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持億速云。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。

AI