參考原文:html
TensorFlow全新的數據讀取方式:Dataset API入門教程python
API接口簡介:api
注意,在TensorFlow 1.3中,Dataset API是放在contrib包中的:多線程
tf.contrib.data
而在TensorFlow 1.4中,Dataset API已經從contrib包中移除,變成了核心API的一員:app
tf.data.
此前,在TensorFlow中讀取數據通常有兩種方法:dom
Dataset API同時支持從內存和硬盤的讀取,相比以前的兩種方法在語法上更加簡潔易懂。此外,若是想要用到TensorFlow新出的Eager模式,就必需要使用Dataset API來讀取數據。機器學習
Google官方給出的Dataset API中的類圖:函數
在初學時,咱們只須要關注兩個最重要的基礎類:Dataset和Iterator。學習
Dataset能夠看做是相同類型「元素」的有序列表。在實際使用時,單個「元素」能夠是向量,也能夠是字符串、圖片,甚至是tuple或者dict。
數據集對象實例化:
dataset = tf.data.Dataset.from_tensor_slices(數據)
迭代器對象實例化(非Eager模式下):
iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
綜合起來效果以下,
import tensorflow as tf
import numpy as np
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0]))
iterator = dataset.make_one_shot_iterator()
one_element = iterator.get_next()
with tf.Session() as sess:
for i in range(5):
print(sess.run(one_element))
輸出:1.0 2.0 3.0 4.0 5.0
讀取結束異常:
若是一個dataset中元素被讀取完了,再嘗試sess.run(one_element)的話,就會拋出tf.errors.OutOfRangeError異常,這個行爲與使用隊列方式讀取數據的行爲是一致的。
在實際程序中,能夠在外界捕捉這個異常以判斷數據是否讀取完,綜合以上三點請參考下面的代碼:
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
輸出:1.0 2.0 3.0 4.0 5.0 end!
tf.data.Dataset.from_tensor_slices真正做用是切分傳入Tensor的第一個維度,生成相應的dataset,即第一維代表數據集中數據的數量,以後切分batch等操做都以第一維爲基礎。
dataset = tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5, 2)))
傳入的數值是一個矩陣,它的形狀爲(5, 2),tf.data.Dataset.from_tensor_slices就會切分它形狀上的第一個維度,最後生成的dataset中一個含有5個元素,每一個元素的形狀是(2, ),即每一個元素是矩陣的一行。
dataset = tf.data.Dataset.from_tensor_slices(np.random.uniform(size=(5, 2))) iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
[0.09787406 0.71672957] [0.25681324 0.81974072] [0.35186046 0.39362398] [0.75228199 0.6534702 ] [0.39695169 0.9341708 ] end!
在實際使用中,咱們可能還但願Dataset中的每一個元素具備更復雜的形式,如每一個元素是一個Python中的元組,或是Python中的詞典。例如,在圖像識別問題中,一個元素能夠是{「image」: image_tensor, 「label」: label_tensor}的形式,這樣處理起來更方便,
注意,image_tensor、label_tensor和上面的高維向量一致,第一維表示數據集中數據的數量。相較之下,字典中每個key值能夠看作數據的一個屬性,value則存儲了全部數據的該屬性值。
dataset = tf.data.Dataset.from_tensor_slices( { "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]), "b": np.random.uniform(size=(5, 2)) }) iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
相似的,可使用組合的特徵進行拼接,
dataset = tf.data.Dataset.from_tensor_slices( (np.array([1.0, 2.0, 3.0, 4.0, 5.0]), np.random.uniform(size=(5, 2))) ) iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
Dataset支持一類特殊的操做:Transformation。一個Dataset經過Transformation變成一個新的Dataset。一般咱們能夠經過Transformation完成數據變換,打亂,組成batch,生成epoch等一系列操做。
經常使用的Transformation有:
和python中的map相似,map接收一個函數,Dataset中的每一個元素都會被看成這個函數的輸入,並將函數返回值做爲新的Dataset,
dataset = tf.data.Dataset.from_tensor_slices(np.array([1.0, 2.0, 3.0, 4.0, 5.0])) dataset = dataset.map(lambda x: x + 1) # <----- iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
輸出:2.0 3.0 4.0 5.0 6.0 end!
注意map函數可使用num_parallel_calls參數加速(第五部分有介紹)。
batch就是將多個元素組合成batch,如上所說,按照輸入元素第一個維度,
dataset = tf.data.Dataset.from_tensor_slices( { "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]), "b": np.random.uniform(size=(5, 2)) }) dataset = dataset.batch(2) # <----- iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
{'a': array([1., 2.]), 'b': array([[0.87466134, 0.21519021], [0.6123372 , 0.95722733]])} {'a': array([3., 4.]), 'b': array([[0.76964374, 0.22445015], [0.08313089, 0.60531841]])} {'a': array([5.]), 'b': array([[0.37901654, 0.3955096 ]])} end!
shuffle的功能爲打亂dataset中的元素,它有一個參數buffersize,表示打亂時使用的buffer的大小,建議舍的不要過小,通常是1000:
dataset = tf.data.Dataset.from_tensor_slices( { "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]), "b": np.random.uniform(size=(5, 2)) }) dataset = dataset.shuffle(buffer_size=5) # <----- iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
repeat的功能就是將整個序列重複屢次,主要用來處理機器學習中的epoch,假設原先的數據是一個epoch,使用repeat(2)就能夠將之變成2個epoch:
dataset = tf.data.Dataset.from_tensor_slices( { "a": np.array([1.0, 2.0, 3.0, 4.0, 5.0]), "b": np.random.uniform(size=(5, 2)) }) dataset = dataset.repeat(2) # <----- iterator = dataset.make_one_shot_iterator() one_element = iterator.get_next() with tf.Session(config=config) as sess: try: while True: print(sess.run(one_element)) except tf.errors.OutOfRangeError: print("end!")
{'a': 1.0, 'b': array([0.85180201, 0.1703507 ])} {'a': 2.0, 'b': array([0.37874819, 0.81303628])} {'a': 3.0, 'b': array([0.99560094, 0.56446562])} {'a': 4.0, 'b': array([0.86341794, 0.69984075])} {'a': 5.0, 'b': array([0.85026424, 0.74761098])} {'a': 1.0, 'b': array([0.85180201, 0.1703507 ])} {'a': 2.0, 'b': array([0.37874819, 0.81303628])} {'a': 3.0, 'b': array([0.99560094, 0.56446562])} {'a': 4.0, 'b': array([0.86341794, 0.69984075])} {'a': 5.0, 'b': array([0.85026424, 0.74761098])} end!
注意,若是直接調用repeat()的話,生成的序列就會無限重複下去,沒有結束,所以也不會拋出tf.errors.OutOfRangeError異常。
考慮一個簡單,但同時也很是經常使用的例子:讀入磁盤中的圖片和圖片相應的label,並將其打亂,組成batch_size=32的訓練樣本,在訓練時重複10個epoch
# 函數的功能時將filename對應的圖片文件讀進來,並縮放到統一的大小 def _parse_function(filename, label): image_string = tf.read_file(filename) image_decoded = tf.image.decode_image(image_string) image_resized = tf.image.resize_images(image_decoded, [28, 28]) return image_resized, label # 圖片文件的列表 filenames = tf.constant(["/var/data/image1.jpg", "/var/data/image2.jpg", ...]) # label[i]就是圖片filenames[i]的label labels = tf.constant([0, 37, ...]) # 此時dataset中的一個元素是(filename, label) dataset = tf.data.Dataset.from_tensor_slices((filenames, labels)) # 此時dataset中的一個元素是(image_resized, label) dataset = dataset.map(_parse_function) # 此時dataset中的一個元素是(image_resized_batch, label_batch) dataset = dataset.shuffle(buffersize=1000).batch(32).repeat(10)
在這個過程當中,dataset經歷三次轉變:
最後,dataset.shuffle(buffersize=1000).batch(32).repeat(10)的功能是:在每一個epoch內將圖片打亂組成大小爲32的batch,並重復10次。最終,dataset中的一個元素是(image_resized_batch, label_batch),image_resized_batch的形狀爲(32, 28, 28, 3),而label_batch的形狀爲(32, ),接下來咱們就能夠用這兩個Tensor來創建模型了。
help(tf.data.Dataset.map)
可見:
Help on function map in module tensorflow.python.data.ops.dataset_ops: map(self, map_func, num_parallel_calls=None) Maps `map_func` across this datset. Args: map_func: A function mapping a nested structure of tensors (having shapes and types defined by `self.output_shapes` and `self.output_types`) to another nested structure of tensors. num_parallel_calls: (Optional.) A `tf.int32` scalar `tf.Tensor`, representing the number elements to process in parallel. If not specified, elements will be processed sequentially. Returns: A `Dataset`.
因而可知map做爲讀取處理的關鍵步驟,是能夠多線程加速的。
除了tf.data.Dataset.from_tensor_slices外,目前Dataset API還提供了另外三種建立Dataset的方式:
它們的詳細使用方法能夠參閱文檔:Module: tf.data
在非Eager模式下,最簡單的建立Iterator的方法就是經過dataset.make_one_shot_iterator()來建立一個one shot iterator。
除了這種one shot iterator外,還有三個更復雜的Iterator,即:
initializable iterator方法要在使用前經過sess.run()來初始化,使用initializable iterator,能夠將placeholder代入Iterator中,實現更爲靈活的數據載入,實際上佔位符引入了dataset對象建立中,咱們能夠經過feed來控制數據集合的實際狀況。
limit = tf.placeholder(dtype=tf.int32, shape=[]) dataset = tf.data.Dataset.from_tensor_slices(tf.range(start=0, limit=limit)) iterator = dataset.make_initializable_iterator() next_element = iterator.get_next() with tf.Session() as sess: sess.run(iterator.initializer, feed_dict={limit: 10}) for i in range(10): value = sess.run(next_element) print(value) assert i == value
輸出:0 1 2 3 4 5 6 7 8 9
initializable iterator還有一個功能:讀入較大的數組。
在使用tf.data.Dataset.from_tensor_slices(array)時,實際上發生的事情是將array做爲一個tf.constants保存到了計算圖中。當array很大時,會致使計算圖變得很大,給傳輸、保存帶來不便。這時,咱們能夠用一個placeholder取代這裏的array,並使用initializable iterator,只在須要時將array傳進去,這樣就能夠避免把大數組保存在圖裏,示例代碼爲(來自官方例程):
# 從硬盤中讀入兩個Numpy數組 with np.load("/var/data/training_data.npy") as data: features = data["features"] labels = data["labels"] features_placeholder = tf.placeholder(features.dtype, features.shape) labels_placeholder = tf.placeholder(labels.dtype, labels.shape) dataset = tf.data.Dataset.from_tensor_slices((features_placeholder, labels_placeholder)) iterator = dataset.make_initializable_iterator() sess.run(iterator.initializer, feed_dict={features_placeholder: features, labels_placeholder: labels})
可見,在上面程序中,feed也遵循着相似字典同樣的規則,建立兩個佔位符(keys),給data_holder去feed數據文件,給label_holder去feed標籤文件。
reinitializable iterator和feedable iterator相比initializable iterator更復雜,也更加少用,若是想要了解它們的功能,能夠參閱官方介紹,這裏就再也不贅述了。
在非Eager模式下,Dataset中讀出的一個元素通常對應一個batch的Tensor,咱們可使用這個Tensor在計算圖中構建模型。
在Eager模式下,Dataset創建Iterator的方式有所不一樣,此時經過讀出的數據就是含有值的Tensor,方便調試。