fasttext

    0熱度

    1回答

    我試圖與Facebook Fasttext模塊新的文本進行分類,代碼如下: #!usr/bin/python 2.7 import sys import jieba reload(sys) sys.setdefaultencoding('utf-8') import fasttext lines=[line.strip() for line in open('./corpus_se

    2熱度

    1回答

    在paper on fasttext的監督分類,作者指定的不同數量的隱藏單元通過改變某些參數(h是在3,4頁的一個 - 你看在表1中「它有10個隱藏的單位,我們有和沒有雙字母組對其進行評估。「),但讀the documentation後它不會出現有一個‘隱藏單位’參數來改變。有沒有辦法指定隱藏單位的數量?或者這與指定-dim選項相同?

    1熱度

    1回答

    我執行文本分類的快速文本,鏈接https://github.com/facebookresearch/fastText/blob/master/tutorials/supervised-learning.md 我想知道什麼是精度@ 1,或P @ 5是什麼意思?我做了一個二元分類,但是我測試了不同的數字,我不明白的結果: haos-mbp:fastText hao$ ./fasttext test

    0熱度

    1回答

    我是webscraping,我將utf-8保存到csv,清理它,現在我正在嘗試創建我的培訓和測試文件,以便能夠使用Facebook快速文本,現在是我和它給我一個錯誤 from sklearn.cross_validation import train_test_split y_all = df["normalized"] X_all = df.drop('normalized', axis

    0熱度

    1回答

    我想知道爲什麼用wiki(韓語)預訓練的'fasttext模型'似乎不能很好地工作! :( 模型= fasttext.load_model( 「./ fasttext/wiki.ko.bin 」) model.cosine_similarity(「 테스트테스트이건테스트문장」, 「지금아무관계없는글정말로정말로」) (英文) model.cosine_similarity( 「測試的測試,這是測

    0熱度

    1回答

    請原諒我在這裏的新鮮感,但是fasttext在Python上並不適合我。我正在使用運行python 3.6的anaconda。我的代碼如下(只是一個例子): import fasttext model = fasttext.load_model('/home/sproc/share/fastText/model.bin') print(model.words) 這將返回以下錯誤: Tra

    0熱度

    1回答

    當我使用fasttext獲取在java中使用Jfasttext庫的單詞時,出現錯誤。錯誤是 A fatal error has been detected by the Java Runtime Environment: # SIGSEGV (0xb) at pc=0x00007f412c606444, pid=14379, tid=139916342187776 # # JRE ver

    1熱度

    1回答

    加載被Facebook Research發佈預訓練fasttext wordvectors需要很長的時間在本地機器上,我這樣做: model = fs.load_word2vec_format('wiki.en.vec') print(model['test']) # get the vector of the word 'test' 我要求降低負載時間除以刪除wordvectors中沒有出

    1熱度

    1回答

    我正在查看各種語義相似度方法,如word2vec,字移動距離(WMD)和fastText。就語義相似性而言,fastText並不比Word2Vec好。 WMD和Word2Vec具有幾乎相似的結果。 我想知道是否有一種替代方法在Word2Vec模型中的語義準確性超過了? 我的使用情況: 現象單詞的嵌入了兩句,然後用餘弦相似性找到它們的相似性。

    0熱度

    1回答

    加速的真正原因是什麼,即使fasttext論文中提到的流水線使用的技術是負樣本和最大softmax;在早期的word2vec論文中。我無法清楚地瞭解實際的差異,這會加速發生?