tf.train.batch和tf.train.shuffle_batch的理解

  capacity是隊列的長度 min_after_dequeue是出隊後,隊列至少剩下min_after_dequeue個數據 假設如今有個test.tfrecord文件,裏面按從小到大順序存放整數0~100 1. tf.train.batch是按順序讀取數據,隊列中的數據始終是一個有序的隊列, 好比隊列的capacity=20,開始隊列內容爲0,1,..,19=>讀取10條記錄後,隊列剩下1
相關文章
相關標籤/搜索