對於我的項目,我有大量的數據,大約60GB傳入npy文件,每個文件大約有1GB,每個文件包含大約750k個記錄和標籤。如何在張量流中處理大量的數據?
每個記錄是345個float32,標籤是5個float32。
我讀了tensorflow數據集文檔和隊列/線程文檔,但我無法弄清楚如何最好地處理輸入的訓練,然後如何保存模型和權重以備未來預測。
我的模型是非常簡單的,它看起來像這樣:
x = tf.placeholder(tf.float32, [None, 345], name='x')
y = tf.placeholder(tf.float32, [None, 5], name='y')
wi, bi = weight_and_bias(345, 2048)
hidden_fc = tf.nn.sigmoid(tf.matmul(x, wi) + bi)
wo, bo = weight_and_bias(2048, 5)
out_fc = tf.nn.sigmoid(tf.matmul(hidden_fc, wo) + bo)
loss = tf.reduce_mean(tf.squared_difference(y, out_fc))
train_op = tf.train.AdamOptimizer().minimize(loss)
我在訓練我的神經網絡的方式是按隨機順序讀取文件一次一個然後用洗好的一numpy的數組索引每個文件並手動創建每個批次以使用feed_dict
來提供train_op
。從我讀的所有內容來看,效率非常低,我應該用數據集或隊列和線程來替換它,但正如我所說的那樣,文檔沒有任何幫助。
那麼,在張量流中處理大量數據的最佳方法是什麼?
另外,作爲參考,我的數據被保存到文件numpy的以2的操作步驟:
with open('datafile1.npy', 'wb') as fp:
np.save(data, fp)
np.save(labels, fp)
這可能正是你正在尋找的:[導入數據(使用'數據集'API)](https://www.tensorflow.org/programmers_guide/datasets) –
對於大數據集,你不應該通過所有的它立即。使用小批量來克服這一點。但在此之前,不要把所有東西都放在記憶中。使用小批量。 –
Karhy,我讀過數據集文檔,但大部分似乎都假設數據已預先加載到內存中。 Paramdeep,我正在使用迷你批處理,這就是我如何從numpy文件加載數據,然後在後來對數據進行混洗並手動進行迷你批處理以提供x和y佔位符。這就是我想要弄清楚如何以更有效的方式做到的。 –