2017-03-16 91 views
0

我正在學習機器學習。在我學習時,我使用MNIST數據集發現了Tensorflow CNN代碼。這裏有一個我想知道的代碼。Tensorflow-如何使用MNIST數據集進行全批處理?

cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv), reduction_indices=[1])) 
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy) 
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1)) 
accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) 
sess.run(tf.global_variables_initializer()) 

for i in range(1000): 
    batch = mnist.train.next_batch(100) 
    if i%100 == 0: 
    train_accuracy = accuracy.eval(feed_dict={ 
     x:batch[0], y_: batch[1], keep_prob: 1.0}) 
    print("step %d, training accuracy %g"%(i, train_accuracy)) 
    train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5}) 

print("test accuracy %g"%accuracy.eval(feed_dict={ 
    x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})) 

在該代碼中,我的問題是關於批次= mnist.train.next_batch(100)。當我搜索這個時,這意味着這是最小批量並從MNIST數據集中隨機選擇100個數據。這是我的問題。

  1. 當我想用完整批次測試此代碼時,我該怎麼辦?只需將mnist.train.next_batch(100)更改爲mnist.train.next_batch(55000)?
+0

爲什麼不試試這個並告訴我們結果? – Razik

+0

我已經嘗試過了,但我不相信這是正確的方法。結果,Python被撞壞了。我認爲這是內存問題。 – YOON

+0

@rmeertens解釋正確的原因。 – Razik

回答

1

是的,獲得55000批次將在MNIST的所有數字上訓練一個紀元。

請注意,這是一個壞主意:這可能不適合您的記憶。您將不得不保存55000數字的重量激活和漸變......它很可能會導致您的Python崩潰!

通過在一批100張隨機圖像上訓練1000次,您會得到一個很好的結果,並且您的計算機很高興!

+0

謝謝,你說得對。當我用完整批次運行這段代碼時,Python崩潰了。大聲笑只是想知道,這是正確的方式來運行此代碼的完整批次 – YOON