如果TensorFlow涉及多個對同一個計算(子)圖的調用,它們會自動緩存計算嗎?Can TensorFlow緩存(子)圖計算?
例如,我有一個矩陣F
,其中每個條目表示基於可訓練變量W
的 計算。我的目標函數 將這個矩陣乘以不同的向量幾次(每個 時間W不變)。
是否會TensorFlow重新計算,例如,F[1,2]
每當我訪問 它,還是會緩存該值?
在理論上,人們可以預先計算矩陣給定一個固定的W
, 使得F
每個條目是tf.constant
F
。但那 阻止W
的梯度的正確計算。
這個問題似乎相關:http://stackoverflow.com/questions/34536340/how-to-use-tensorflow-optimizer-without-recomputing-activations-in-reinforcement –