這裏描述的張量流文本摘要模型https://github.com/tensorflow/models/tree/master/textsum需要多GPU架構才能訓練。我多次嘗試訓練模型導致內存異常,出於各種原因機器崩潰。訓練有素的總結模型是否可以使用匯總模型而無需進行培訓?如果訓練有素的模型不能從Google獲得,則使用非免費的Gigaword數據集對摘要模型進行訓練,這是爲什麼?使用未經訓練的摘要模型
0
A
回答
0
所以,據我所知,沒有人把訓練有素的模型放在那裏。我也是最初遇到我的MacBook Pro的內存問題,並最終結束了使用我的遊戲筆記本電腦,有一個更好的GPU。
當然其他選擇是利用AWS並使用類似他們的g2.2xlarge實例。他們也有他們的P2實例,但我還沒有檢查出來。
關於Gigaword數據集,它只是歸結爲授權。它不是LDC的免費許可證,並且經常有許多從事這方面工作的學者通過他們的大學或公司向他們提供數據集。我還沒有找到它的運氣,但最不發達國家確實回到我身邊,並建議他們確實有其他文章數據集,其價格約爲300美元,這對於僅僅學習TF的用戶來說更合理。也就是說,如果您不想購買任何東西,您可以隨時編寫自己的頁面刮板併爲textsum模型格式化數據。 https://github.com/tensorflow/models/pull/379/files
希望這有助於一些。祝你好運!
相關問題
- 1. 神經網絡模型訓練錯誤
- 2. 插圖中的訓練模型未經調整R
- 3. NLP模型訓練
- 4. 如何使用已經訓練有素inceptionV4模型
- 5. 使用pascal套件訓練新模型
- 6. Tensorflow:使用預訓練以來模型
- 7. 更新已經訓練過的用戶輸入的lstm模型
- 8. 重新訓練tensorflow模型
- 9. 如何訓練ML模型?
- 10. 錯誤訓練im2txt模型
- 11. LightGBM:繼續訓練模型
- 12. 訓練分類模型Opennlp
- 13. Keras訓練稀疏模型
- 14. 加載訓練有素的Keras模型並繼續訓練
- 15. 已經訓練過HMM模型,用於識別文字
- 16. 如何加載經過訓練的張量流模型
- 17. 在Scikit中保存經過交叉驗證訓練的模型
- 18. 將經過訓練的模型加載回張量流
- 19. 帶退出訓練神經網絡的模型選擇
- 20. RNN未訓練(PyTorch)
- 21. 訓練神經網絡
- 22. Adaline神經元訓練
- 23. AzureML中每個人的訓練模型
- 24. 訓練方法seq2seq模型的選擇
- 25. 在opennlp中訓練自己的模型
- 26. 還原訓練的模型在Tensorflow 1.2
- 27. 改變訓練圖像訓練神經網絡
- 28. Tensorflow python未加載預先訓練的模型
- 29. LSTM訓練模式
- 30. 當多個GPU用於訓練時,加載預訓練模型失敗