0
我想在同一個TensorFlow會話中訓練和測試我的模型。我使用兩個不同的tf.FIFOQueue
來使用多線程加載訓練和測試數據(因爲feed_dict
導致性能較差)。我試了兩件事:TensorFlow:在同一環節中進行培訓和測試
我試着用共享參數兩次創建我的模型(用於培訓和測試)。但我使用的是
tf.contrib.layers.batch_norm
,它不允許共享批量標準化的參數。我試圖調節我的網絡的輸入
tf.FIFOQueue
使用tf.cond
is_training
布爾佔位符,但顯然tf.cond
執行兩個tf.FIFOQueue
小號出列功能,無論什麼is_training
成立。
我想知道傳統設置在同一會話中如何訓練和測試,而不使用feed_dict
。