rweka

    0熱度

    2回答

    我正在嘗試安裝軟件包RWeka。我安裝了Java版本8,但我不斷收到此錯誤。任何人都可以幫忙嗎? > install.packages('RWeka') There is a binary version available but the source version is later: binary source needs_compilation RWeka 0.4-26 0

    0熱度

    1回答

    我使用創建的雙字母組的列表: BigramTokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2)) tdm_a.bigram = TermDocumentMatrix(docs_a, control = list(tokenize = BigramTokenizer)) 我試圖

    -2熱度

    1回答

    我想了解如何在R的RWeka庫中的M5P方法生成的樹的每個葉片上獲取線性模型作爲輸出到文本文件,我可以編寫一個單獨的查找計算器程序(比如在非R用戶的excel中)。 我使用 庫(RWeka) 模型= M5P(響應〜predictorA + predictorB,數據=列車)。 我可以得到樹型輸出爲模型$ classifier在矩陣中。這個偉大的工程歸功於This post 如果我給了命令: 模型

    0熱度

    1回答

    我工作在一個開放的源R包需要rJava和RWeka和莫名其妙的rJava和RWeka我的本地機器上打破神祕。 任何人都知道爲什麼rJava可以打破? 看來,該系統無法找到共享對象,所以我做的follwing兩個: 須藤-l LDCONFIG /home/sunxd/R/x86_64-pc-linux-gnu-library/3.3 /rJava/libs/rJava.so 除了 ,我添加/home

    0熱度

    1回答

    我已經使用WEKA GUI Java here來進行數據的預處理。我想現在在R中使用相同的預處理步驟。 例如,我想將WEKA GUI的MultiFilter預處理加載到R.我無法在RWeka中找到它。 如何將WEKA預處理步驟加載到R?

    2熱度

    1回答

    下面是我用它來創建雙克頻率列表的代碼: library(tm) library(RWeka) #data <- myData[,2] tdm.generate <- function(string, ng){ # tutorial on rweka - http://tm.r-forge.r-project.org/faq.html corpus <- Corpu

    0熱度

    1回答

    無論如何,我可以使用10倍交叉驗證將文本分類後的預測結果發回原始評論嗎? 從類非國資委和國資委的意見2000結果: inst#,actual,predicted,error,prediction 1,2:non-sarc,2:non-sarc,,1 2,2:non-sarc,1:sarc,+,1 3,2:non-sarc,2:non-sarc,,1 4,2:non-sarc,2:non-s

    0熱度

    1回答

    我使用rWeka軟件包中的NGramTokenizer。我相信我已經正確安裝了一切。我執行以下代碼: Bigram_Tokenizer <- function(x) NGramTokenizer(x, Weka_control(min = 2, max = 2)) tdm <- TermDocumentMatrix(corpus, control = list(tokenize= Bigram_

    0熱度

    1回答

    我寫了一個如下所示的文件(來自臭名昭着的Coursera課程和以後),它爲我服務得很好。不知道是否有什麼變化,但它現在似乎不工作,我什麼也沒有改變。 似乎不起作用的第一件事是for循環刪除特殊字符。 接下來,當我將它視爲計劃文本文檔時,詞雲似乎並不想工作。 最後,令牌生成器函數生成相同的圖表,基本上是經常使用的單個字與編程的ngrams。這意味着每個ngram只是生成相同的圖表,最頻繁使用的單詞與

    1熱度

    1回答

    我正在試圖爲一個語料庫,一個使用unigrams,一個使用bigrams製作兩個文檔項矩陣。然而,二元矩陣當前與單元矩陣相同,我不知道爲什麼。從的ngram包作爲標記生成器,但是這並不工作 docs<-Corpus(DirSource("data", recursive=TRUE)) # Get the document term matrices BigramTokenizer <- fu