2017-03-07 27 views
0

雖然利用神經網絡編寫代碼時,我們通常使用next_batch功能象下面這樣:有明確的next_batch函數嗎?

mnist.train.next_batch(batch_size) 

在使用其他方法,如隨機森林,支持向量機,貝葉斯網絡的情況下, 我們沒有使用上面的代碼,因爲所有的訓練數據都一次性放入。 但是,如果我們想要使用神經網絡的數據,我們必須做代碼next_batch。當然,我知道tensorflow的next_batch函數代碼,here, 但是,如果數據難以載入內存,上面的方法將是不正確的。 有很好的定義next_batch函數可能爲巨大的數據集?

在此先感謝。

+0

如果您發現我的回答有用,請注意或接受它 – yuval

+0

當然,它的確如此,謝謝。 – semenbari

回答

1

對於無法放入內存的大型數據集,可以使用TensorFlow內置的分佈式培訓支持。

請參閱TF程序員指南中的reading data章節。具體來說,請閱讀批次部分。 關於RNN,還有一個很棒的blog post,第一部分給出瞭如何使用TF支持進行分佈式培訓的簡短例子。

相關問題