nltk

    0熱度

    2回答

    我在我的代碼,這個錯誤,我不知道如何固定 import nltk from nltk.util import ngrams def word_grams(words, min=1, max=4): s = [] for n in range(min, max): for ngram in ngrams(words, n): s.append('

    1熱度

    2回答

    當我運行我的程序,這是使用: nltk.download('wordnet') from nltk.corpus import wordnet 我得到以下輸出到我的終端: [nltk_data] Downloading package wordnet to [nltk_data] /Users/.../nltk_data... [nltk_data] Package wordnet i

    0熱度

    2回答

    我目前正在嘗試訓練我的Python NLTK詞性標記器以正確標記德語文本。爲了做到這一點我使用的ClassifiedBasedGermanTagger,距離: https://github.com/ptnplanet/NLTK-Contributions/tree/master/ClassifierBasedGermanTagger ,並從該網站訓練語料庫: http://www.ims.uni-

    0熱度

    2回答

    我想檢查句子是否具有特定的詞性標記結構。我可以使用python自然語言工具包來做到嗎?如果是這樣,怎麼樣?

    3熱度

    2回答

    我有一個表像下面: URN Firm_Name 0 104472 R.X. Yah & Co 1 104873 Big Building Society 2 109986 St James's Society 3 114058 The Kensington Society Ltd 4 113438 MMV Oil Associates Ltd 而且我想算Fir

    2熱度

    2回答

    I 可以從bash運行python或ipython時導入nltk包。所以,NLTK肯定是安裝某處(從bash的巨蟒, nltk.__file__是 /home/nadine/anaconda2/lib/python2.7/site-packages/nltk/__init__.pyc) 但是,使用Jupyter筆記本電腦(我安裝使用蟒蛇,與2.7版本的Python)時,進口NLTK失敗: impo

    1熱度

    1回答

    我的第一個電報chatbot出現問題,用Chatterbot庫完成。 我的項目是由組成: Procfile 要求(txt文件) telegramtoken(txt文件) 運行時(txt文件) NLTK(txt文件) botusers(csv文件) magghybot(py文件) Magghy(PY文件) 對話(名爲郎文件夾中的陽明文件) math_words(名爲郎文件夾中的JSON文件) 我部署

    0熱度

    1回答

    我需要爲Python中的nltk分類例程安裝megam。 我接着牛奶魔術從this post指令: 0下載從http://www.umiacs.umd.edu/~hal/megam/index.html 1.用gcc安裝了Cygwin megam來源,製作和OCaml的包 2.試圖編譯megam與時變makefile文件 3 makefile我收到以下內容的錯誤 make ocamldep *.m

    1熱度

    1回答

    我有一個包含2柱csv文件「投訴詳細」和「DispositionCode'.I要的complaintDetails分爲8不同類別dispostionCode的如‘門反鎖’ ,'供應商錯誤','缺少密鑰或鎖'... 數據集顯示在圖像中。 enter image description here 什麼是很好的方法來分類和找到準確性。 起初我試圖從ComplaintDetails去除停用詞然後用naiv

    1熱度

    1回答

    我對我已經獲取的一組Twitter數據執行不同的情感分析技術。它們基於詞典(Vader Sentiment和SentiWordNet),因此不需要預先標記的數據。 我想知道是否有方法(如F-Score,ROC/AUC)來計算分類器的準確性。我所知道的大多數方法都需要一個目標來比較結果。