您好,登錄后才能下訂單哦!
tensorflow官方提供了3種方法來讀取數(shù)據(jù):
預加載數(shù)據(jù)(preloaded data):在TensorFlow圖中定義常量或變量來保存所有的數(shù)據(jù),適用于數(shù)據(jù)量不太大的情況。填充數(shù)據(jù)(feeding):通過Python產(chǎn)生數(shù)據(jù),然后再把數(shù)據(jù)填充到后端。
從文件讀取數(shù)據(jù)(reading from file):從文件中直接讀取,然后通過隊列管理器從文件中讀取數(shù)據(jù)。
本文主要介紹第三種方法,通過tfrecord文件來保存和讀取數(shù)據(jù),對于前兩種讀取數(shù)據(jù)的方式也會進行一個簡單的介紹。
項目下載github地址:https://github.com/steelOneself/tensorflow_learn/tree/master/tf_records_writer_read
一、預加載數(shù)據(jù)
a = tf.constant([1,2,3]) b = tf.constant([4,5,6]) c = tf.add(a,b) with tf.Session() as sess: print(sess.run(c))#[5 7 9]
這種方式加載數(shù)據(jù)比較簡單,它是直接將數(shù)據(jù)嵌入在數(shù)據(jù)流圖中,當訓練數(shù)據(jù)較大時,比較消耗內(nèi)存。
二、填充數(shù)據(jù)
通過先定義placeholder然后再通過feed_dict來喂養(yǎng)數(shù)據(jù),這種方式在TensorFlow中使用的也是比較多的,但是也存在數(shù)據(jù)量大時比較消耗內(nèi)存的缺點,下面介紹一種更高效的數(shù)據(jù)讀取方式,通過tfrecord文件來讀取數(shù)據(jù)。
x = tf.placeholder(tf.int16) y = tf.placeholder(tf.int16) z = tf.add(x,y) with tf.Session() as sess: print(sess.run(z,feed_dict={x:[1,2,3],y:[4,5,6]})) #[5 7 9]
三、從文件讀取數(shù)據(jù)
通過slim來實現(xiàn)將圖片保存為tfrecord文件和tfrecord文件的讀取,slim是基于TensorFlow的一個更高級別的封裝模型,通過slim來編程可以實現(xiàn)更高效率和更簡潔的代碼。
在本次實驗中使用的數(shù)據(jù)集是kaggle的dog vs cat,數(shù)據(jù)集下載地址:https://www.kaggle.com/c/dogs-vs-cats/data
1、tfrecord文件的保存
a、參數(shù)設置
dataset_dir_path:訓練集圖片存放的上級目錄(train下還有一個train目錄用來存放圖片),在dog vs cat數(shù)據(jù)集中,dog和cat類的區(qū)別是依靠圖片的名稱,如果你的數(shù)據(jù)集通過文件夾的名稱來劃分圖片類標的,可能需要對代碼進行部分修改。
label_name_to_num:字符串類標與數(shù)字類標的對應關系,在將圖片保存為tfrecord文件的時候,需要將字符串轉為整數(shù)類標0和1,方便后的訓練。
label_num_to_name:數(shù)字類標與字符串類標的對應關系。
val_size:驗證集在訓練集中所占的比例,訓練集一共有25000張圖片,用20000張來訓練,5000張來進行驗證。
batch_size:在讀取tfrecord文件的時候,每次讀取圖片的數(shù)量。
#數(shù)據(jù)所在的目錄路徑 dataset_dir_path = "D:/dataset/kaggle/cat_or_dog/train" #類標名稱和數(shù)字的對應關系 label_name_to_num = {"cat":0,"dog":1} label_num_to_name = {value:key for key,value in label_name_to_num.items()} #設置驗證集占整個數(shù)據(jù)集的比例 val_size = 0.2 batch_size = 1
b、獲取訓練集所有的圖片路徑
獲取訓練目錄下所有的dog和cat的圖片路徑,將它們分開保存,便于后面訓練集和驗證集數(shù)據(jù)的劃分,保證每類圖片在所占的比例相同。
#獲取文件所在路徑 dataset_dir = os.path.join(dataset_dir,split_name) #遍歷目錄下的所有圖片 for filename in os.listdir(dataset_dir): #獲取文件的路徑 file_path = os.path.join(dataset_dir,filename) if file_path.endswith("jpg") and os.path.exists(file_path): #獲取類別的名稱 label_name = filename.split(".")[0] if label_name == "cat": cat_img_paths.append(file_path) elif label_name == "dog": dog_img_paths.append(file_path) return cat_img_paths,dog_img_paths
c、設置需要保存的圖片信息
對于訓練集的圖片主要保存圖片的字節(jié)數(shù)據(jù)、圖片的格式、圖片的標簽、圖片的高和寬,測試集保存為tfrecord文件的時候需要保存圖片的名稱,因為在提交數(shù)據(jù)的時候需要用到圖片的名稱信息。在保存圖片信息的時候,需要先將這些信息轉換為byte數(shù)據(jù)才能寫入到tfrecord文件中。
def int64_feature(values): if not isinstance(values, (tuple, list)): values = [values] return tf.train.Feature(int64_list=tf.train.Int64List(value=values)) def bytes_feature(values): return tf.train.Feature(bytes_list=tf.train.BytesList(value=[values])) #將圖片信息轉換為tfrecords可以保存的序列化信息 def image_to_tfexample(split_name,image_data, image_format, height, width, img_info): ''' :param split_name: train或val或test :param image_data: 圖片的二進制數(shù)據(jù) :param image_format: 圖片的格式 :param height: 圖片的高 :param width: 圖片的寬 :param img_info: 圖片的標簽或圖片的名稱,當split_name為test時,img_info為圖片的名稱否則為圖片標簽 :return: ''' if split_name == "test": return tf.train.Example(features=tf.train.Features(feature={ 'image/encoded': bytes_feature(image_data), 'image/format': bytes_feature(image_format), 'image/img_name': bytes_feature(img_info), 'image/height': int64_feature(height), 'image/width': int64_feature(width), })) else: return tf.train.Example(features=tf.train.Features(feature={ 'image/encoded': bytes_feature(image_data), 'image/format': bytes_feature(image_format), 'image/label': int64_feature(img_info), 'image/height': int64_feature(height), 'image/width': int64_feature(width), }))
d、保存tfrecord文件
主要是通過TFRecordWriter來保存tfrecord文件,在將圖片信息保存為tfrecord文件的時候,需要先將圖片信息序列化為字符串才能進行寫入。ImageReader類可以將圖片字節(jié)數(shù)據(jù)解碼為指定格式的圖片,獲取圖片的寬和高信息。
_get_dataset_filename函數(shù)是通過數(shù)據(jù)集的名稱和split_name的名稱來組合獲取tfrecord文件的名稱,tfrecord名稱如下:
def _convert_tfrecord_dataset(split_name, filenames, label_name_to_id, dataset_dir, tfrecord_filename, _NUM_SHARDS): ''' :param split_name:train或val或test :param filenames:圖片的路徑列表 :param label_name_to_id:標簽名與數(shù)字標簽的對應關系 :param dataset_dir:數(shù)據(jù)存放的目錄 :param tfrecord_filename:文件保存的前綴名 :param _NUM_SHARDS:將整個數(shù)據(jù)集分為幾個文件 :return: ''' assert split_name in ['train', 'val','test'] #計算平均每一個tfrecords文件保存多少張圖片 num_per_shard = int(math.ceil(len(filenames) / float(_NUM_SHARDS))) with tf.Graph().as_default(): image_reader = ImageReader() with tf.Session('') as sess: for shard_id in range(_NUM_SHARDS): #獲取tfrecord文件的名稱 output_filename = _get_dataset_filename( dataset_dir, split_name, shard_id, tfrecord_filename = tfrecord_filename, _NUM_SHARDS = _NUM_SHARDS) #寫tfrecords文件 with tf.python_io.TFRecordWriter(output_filename) as tfrecord_writer: start_ndx = shard_id * num_per_shard end_ndx = min((shard_id+1) * num_per_shard, len(filenames)) for i in range(start_ndx, end_ndx): #更新控制臺中已經(jīng)完成的圖片數(shù)量 sys.stdout.write('\r>> Converting image %d/%d shard %d' % ( i+1, len(filenames), shard_id)) sys.stdout.flush() #讀取圖片,將圖片數(shù)據(jù)讀取為bytes image_data = tf.gfile.FastGFile(filenames[i], 'rb').read() #獲取圖片的高和寬 height, width = image_reader.read_image_dims(sess, image_data) #獲取路徑中的圖片名稱 img_name = os.path.basename(filenames[i]) if split_name == "test": #需要將圖片名稱轉換為二進制 example = image_to_tfexample( split_name,image_data, b'jpg', height, width, img_name.encode()) tfrecord_writer.write(example.SerializeToString()) else: #獲取圖片的類別 class_name = img_name.split(".")[0] label_id = label_name_to_id[class_name] example = image_to_tfexample( split_name,image_data, b'jpg', height, width, label_id) tfrecord_writer.write(example.SerializeToString()) sys.stdout.write('\n') sys.stdout.flush()
e、將數(shù)據(jù)集分為驗證集和訓練集保存為tfrecord文件
先獲取數(shù)據(jù)集中所有圖片的路徑和圖片的標簽信息,將不同類別的圖片分為訓練集和驗證集,并保證訓練集和驗證集中不同類別的圖片數(shù)量保持相同,在保存為tfrecord文件之前,打亂所有圖片的路徑。將訓練集分為了2個tfrecord文件,驗證集保存為1個tfrecord文件。
#生成tfrecord文件 def generate_tfreocrd(): #獲取目錄下所有的貓和狗圖片的路徑 cat_img_paths,dog_img_paths = _get_dateset_imgPaths(dataset_dir_path,"train") #打亂路徑列表的順序 np.random.shuffle(cat_img_paths) np.random.shuffle(dog_img_paths) #計算不同類別驗證集所占的圖片數(shù)量 cat_val_num = int(len(cat_img_paths) * val_size) dog_val_num = int(len(dog_img_paths) * val_size) #將所有的圖片路徑分為訓練集和驗證集 train_img_paths = cat_img_paths[cat_val_num:] val_img_paths = cat_img_paths[:cat_val_num] train_img_paths.extend(dog_img_paths[dog_val_num:]) val_img_paths.extend(dog_img_paths[:dog_val_num]) #打亂訓練集和驗證集的順序 np.random.shuffle(train_img_paths) np.random.shuffle(val_img_paths) #將訓練集保存為tfrecord文件 _convert_tfrecord_dataset("train",train_img_paths,label_name_to_num,dataset_dir_path,"catVSdog",2) #將驗證集保存為tfrecord文件 _convert_tfrecord_dataset("val",val_img_paths,label_name_to_num,dataset_dir_path,"catVSdog",1)
通過控制臺你能夠看到tfrecord文件的保存進度
2、從tfrecord文件中讀取數(shù)據(jù)
a、讀取tfrecord文件,將數(shù)據(jù)轉換為dataset
通過TFRecordReader來讀取tfrecord文件,在讀取tfrecord文件時需要通過tf.FixedLenFeature來反序列化存儲的圖片信息,這里我們只讀取圖片數(shù)據(jù)和圖片的標簽,再通過slim模塊將圖片數(shù)據(jù)和標簽信息存儲為一個dataset。
#創(chuàng)建一個tfrecord讀文件對象 reader = tf.TFRecordReader keys_to_feature = { "image/encoded":tf.FixedLenFeature((),tf.string,default_value=""), "image/format":tf.FixedLenFeature((),tf.string,default_value="jpg"), "image/label":tf.FixedLenFeature([],tf.int64,default_value=tf.zeros([],tf.int64)) } items_to_handles = { "image":slim.tfexample_decoder.Image(), "label":slim.tfexample_decoder.Tensor("image/label") } items_to_descriptions = { "image":"a 3-channel RGB image", "img_name":"a image label" } #創(chuàng)建一個tfrecoder解析對象 decoder = slim.tfexample_decoder.TFExampleDecoder(keys_to_feature,items_to_handles) #讀取所有的tfrecord文件,創(chuàng)建數(shù)據(jù)集 dataset = slim.dataset.Dataset( data_sources = tfrecord_paths, decoder = decoder, reader = reader, num_readers = 4, num_samples = num_imgs, num_classes = num_classes, labels_to_name = labels_to_name, items_to_descriptions = items_to_descriptions )
b、獲取batch數(shù)據(jù)
preprocessing_image對圖片進行預處理,對圖片進行數(shù)據(jù)增強,輸出后的圖片尺寸由height和width參數(shù)決定,固定圖片的尺寸方便CNN的模型訓練。
def load_batch(split_name,dataset,batch_size,height,width): data_provider = slim.dataset_data_provider.DatasetDataProvider( dataset, common_queue_capacity = 24 + 3 * batch_size, common_queue_min = 24 ) raw_image,img_label = data_provider.get(["image","label"]) #Perform the correct preprocessing for this image depending if it is training or evaluating image = preprocess_image(raw_image, height, width,True) #As for the raw images, we just do a simple reshape to batch it up raw_image = tf.expand_dims(raw_image, 0) raw_image = tf.image.resize_nearest_neighbor(raw_image, [height, width]) raw_image = tf.squeeze(raw_image) #獲取一個batch數(shù)據(jù) images,raw_image,labels = tf.train.batch( [image,raw_image,img_label], batch_size=batch_size, num_threads=4, capacity=4*batch_size, allow_smaller_final_batch=True ) return images,raw_image,labels
c、讀取tfrecord文件
#讀取tfrecord文件 def read_tfrecord(): #從tfreocrd文件中讀取數(shù)據(jù) train_dataset = get_dataset_by_tfrecords("train",dataset_dir_path,"catVSdog",2,label_num_to_name) images,raw_images,labels = load_batch("train",train_dataset,batch_size,227,227) with tf.Session() as sess: threads = tf.train.start_queue_runners(sess) for i in range(6): train_img,train_label = sess.run([raw_images,labels]) plt.subplot(2,3,i+1) plt.imshow(np.array(train_img[0])) plt.title("image label:%s"%str(label_num_to_name[train_label[0]])) plt.show()
讀取訓練集的tfrecord文件,只從tfrecord文件中獲取了圖片數(shù)據(jù)和圖片的標簽,images表示的是預處理后的圖片,raw_images表示的是沒有經(jīng)過預處理的圖片。
以上這篇tensorflow將圖片保存為tfrecord和tfrecord的讀取方式就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持億速云。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。