我正在嘗試瞭解GAN,並正在通過the example here進行工作。 下面使用ADAM優化的代碼給我 "ValueError: Variable d_w1/Adam/ does not exist, or was not created with tf.get_variable(). Did you mean to set reuse=None in VarScope?" 我使用TF 1.1
我使用CNN(卷積神經網絡)模型來訓練cifar10。 我試圖在每次執行時更改批量大小以查看其對時間的影響 我的結論是:批量越大,模型執行的時間就越多。 這個問題似乎符合邏輯,因爲在我們應用BP算法每一批的結束,具有較大批量大小意味着我們施加較小梯度下降所以邏輯上,我們應該有較少的執行時間。 我發現相反。你們覺得怎麼樣 ! 感謝 這裏是我的會話代碼: with tf.Session() as s