textsum

    1熱度

    1回答

    我正在嘗試將訓練文本文件轉換爲bin文件以訓練tensorflow的文本。但我遇到了以下錯誤: $ python textsum/data_convert_example.py --command text_to_binary --in_file data/tt.txt --out_file data/bin_data_train Traceback (most recent call last

    0熱度

    2回答

    我已經使用下面顯示的export_textsum.py文件導出文本模型,並且在使用下面的textsumclient.py文件進行連接時收到錯誤消息: Traceback (most recent call last): File "textsum_client.py", line 90, in tf.app.run() File "/usr/local/lib/python2.7/site-pac

    1熱度

    1回答

    我正在使用Tensorflow 0.9並使用Textsum模型進行培訓。我有大約130萬篇文章,我現在颳了大約一週,並且已經對他們進行了培訓。平均損失約爲1.75 - 2.1。我決定停止和運行eval,因爲我的理解是,我的平均損失應該接近我通過培訓獲得的。當我運行eval時,我看到2.6到2.9的平均損失。我只是想知道我在執行這個運行時應該看到什麼。 我是否正確使用此培訓/評估分析?我對深度學習有

    1熱度

    1回答

    我正在一個小測試集(5個示例)上運行textsum解碼,但參考文件和解碼文件已經有數千行。解碼運行似乎無限期地有理由嗎?它是否重複處理同一組示例?後來的產出應該比以前的產出要好嗎? 對此會有一些直覺;我一直無法找到明確的解釋。

    1熱度

    1回答

    我正在處理文本摘要的張量流texsum模型。我正在按照自述文件中指定的命令在github/textsum。它說在數據文件夾中存在一個名爲validation的文件,要在eval步驟中使用,但數據文件夾中沒有驗證文件。 我以爲自己做一個,後來才意識到它應該是一個二進制文件。所以我需要準備一個文本文件,它將被轉換爲二進制文件。 但該文本文件必須具有特定的格式。它是否與列車步驟中使用的文件相同?我可以使

    0熱度

    1回答

    有沒有人測試textsum代碼以獲得完美的結果? 前兩天看到消息xtr33me中提出的「#textsum# - ref file比較錯誤解碼結果」,我現在測試的情況和這個是一樣的,我用中文語料庫,訓練到running_avg_loss = 0.00001,但我解碼的結果是錯誤的,原因是什麼? 如果任何人都可以提供任何幫助或方向,將不勝感激。 decode1480036683.txt這裏 ref14

    -1熱度

    1回答

    我已經訓練了5天的文本總數與在項目頁面中推薦的參數。我使用了超過300萬篇文章總結對的培訓集。 起初running_average_loss從9左右緩慢減少到4左右,但之後,running_average_loss值變化很大,可以高達5以上,但有時可以低至1。該模型在訓練集中包含一些文章,但輸出結果遠離引用的摘要,我很困惑。有人能分享他們的經驗嗎? 我很困惑與下列問題 running_averag

    0熱度

    1回答

    我目前正在嘗試使用張量服務來服務訓練有素的「textsum」模型。我使用TF 0.11,其中一些閱讀後,似乎會自動調用export_meta_graph它創建導出文件CKPT和ckpt.meta文件。 在textsum/log_root目錄下,我有多個文件。一個是model.ckpt-230381和另一個model.ckpt-230381.meta。 因此,我的理解是,這是我在嘗試設置服務模型時應

    0熱度

    1回答

    我正在努力使textsum實現工作,最近得到了我自己的scraped data fed。我開始訓練昨晚對38000篇文章。今天早上當我看到平均損失時,我約爲520萬。當我玩文本玩具套裝時,例如我能夠快速下降到0.0000054左右,但是這隻對20個文章。 我一直希望有一些經驗豐富的人能夠提供一些關於培訓需要多長時間的預期。我目前正在Nvidia 980M上運行它。上週我確實想要試用AWS g2.2

    0熱度

    1回答

    我一直在600k條+摘要訓練語料庫上訓練文本seq2seq w /注意模型,用於抽象概括。這可以視爲收斂嗎?如果是這樣,在不到5K步驟後會聚合嗎?注意事項: 我已經對20萬個 5K步驟的詞彙尺寸爲4的批量式訓練(直到大約收斂),意味着在大多數20K不同的樣品進行觀察。這只是整個訓練語料庫的一小部分。 或者我實際上沒有在茶葉裏看到我的狗的臉,是預期的邊際負坡?