behemoth

    0熱度

    2回答

    我是新來的Hadoop和巨獸,我跟着上https://github.com/DigitalPebble/behemoth/wiki/tutorial教程來生成一個文本文檔的龐然大物語料庫,使用以下命令: 須藤斌/ Hadoop的JAR /家/ madhumita /behemoth/core/target/behemoth-core-*-job.jar com.digitalpebble.behe

    1熱度

    1回答

    我在hadoop上使用了龐然大物,我在slf4j版本中遇到了衝突。 Solr 3.6.2使用slf4j-api-1.6.1,hadoop 1.0.4使用slf4j-api-1.4.3的庫。由於這個原因,我無法在hadoop上運行龐然大物solr jar文件。解決這個衝突的最好方法是什麼?一種選擇是替換hadoop中的slf4j庫,但我不願意那樣做。任何解決方案將不勝感激。

    0熱度

    1回答

    我想使用solr爲我的語料庫編制索引。 要創建序列文件,我用下面的命令: ./behemoth -i file://path/to/my/file/where/the corpus/is/located -o /user/user-name/file-to-which-the-putput-is-stored 在此之後我給索引以下命令: ./behemoth的Solr /用戶/用戶名/普通話對

    0熱度

    2回答

    我運行的命令轉換龐然大物語料庫使用映射精簡爲this tutorial 給做下去我收到以下錯誤提卡時: 13/02/25 14:44:00 INFO mapred.FileInputFormat: Total input paths to process : 1 13/02/25 14:44:01 INFO mapred.JobClient: Running job: job_201302251