當我使用預先訓練的單詞向量做LSTM分類時,我想知道如何處理tensorflow中大於2gb的嵌入查找表。如何在張量流中處理大型(> 2GB)嵌入式查找表?
要做到這一點,我試圖讓嵌入查找表像下面的代碼,
data = tf.nn.embedding_lookup(vector_array, input_data)
得到這個值誤差。上的代碼
ValueError: Cannot create a tensor proto whose content is larger than 2GB
可變vector_array是numpy的陣列,它包含約14萬個獨特的標記和對每個字100個尺寸字向量。
感謝您的幫助
對不起,聽到它不適合你。當我嘗試時,我使用交互式會話檢查了個人權重,他們絕對不是全0。此外,我僅僅在Stackoverflow上引用了超過93個upvotes的回答,這是由Google員工提供的,所以不確定哪裏出了問題 - 也許在我的代碼或你的代碼中存在一些錯字。你當然可以做你所建議的,而不是使用變量,但我認爲你不能使張量持續這種方式。我保存我的變量,以便將來不必運行這個耗費內存的進程 - 我只是恢復已保存的變量。 – ltt