2013-07-08 56 views
1

我已經使用NUTCH 1.2成功爬過一個站點。現在我想將它與solr 3.6集成。問題是,當我發出命令
$ bin/nutch solrindex //localhost:8080/solr/ crawl/crawldb crawl/linkdb crawl/segments/*發生錯誤Nutch 1.2 Solr 3.6集成問題

SolrIndexer: starting at 2013-07-08 14:52:27 
java.io.IOException: Job failed! 

請幫我解決這個問題

,這裏是我的Nutch日誌

java.lang.RuntimeException: Invalid version (expected 2, but 60) or the data in not in 'javabin' format 
    at org.apache.solr.common.util.JavaBinCodec.unmarshal(JavaBinCodec.java:99) 
    at org.apache.solr.client.solrj.impl.BinaryResponseParser.processResponse(BinaryResponseParser.java:41) 
    at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:469) 
    at org.apache.solr.client.solrj.impl.CommonsHttpSolrServer.request(CommonsHttpSolrServer.java:249) 
    at org.apache.solr.client.solrj.request.AbstractUpdateRequest.process(AbstractUpdateRequest.java:105) 
    at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:69) 
    at org.apache.solr.client.solrj.SolrServer.add(SolrServer.java:54) 
    at org.apache.nutch.indexer.solr.SolrWriter.close(SolrWriter.java:75) 
    at org.apache.nutch.indexer.IndexerOutputFormat$1.close(IndexerOutputFormat.java:48) 
    at org.apache.hadoop.mapred.ReduceTask.runOldReducer(ReduceTask.java:474) 
    at org.apache.hadoop.mapred.ReduceTask.run(ReduceTask.java:411) 
    at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:216) 
2013-07-08 15:17:39,539 ERROR solr.SolrIndexer - java.io.IOException: Job f 
+0

您可以檢查其中的錯誤會在細節 – Jayendra

+0

@Jayendra哎提到Solr的和Nutch的日誌。請你能告訴我在哪裏可以找到這些日誌 –

+0

Nutch的使用Hadoop的底層所以請在hadoop.log的nucth文件夾文件。 – Jayendra

回答

0

這主要是之間的javabin incompatiblity Nutch使用的Solrj版本的jar文件以及您正在嘗試整合的Solr 3.6。

您需要更新Solrj罐並重新生成作業。

按照forum中提到的步驟操作。