dataimporthandler

    1熱度

    2回答

    我有一個要求從mysql數據庫和索引文檔(大約1000個文檔)中導入大量數據。 在編制索引過程中,我需要通過向外部Apache Stanbol服務器發送增強請求來對字段進行特殊處理。 我已經在solrconfig.xml中配置了我的dataimport-handler來在更新鏈中使用StanbolContentProcessor,如下所示; <updateRequestProcessorChain

    2熱度

    3回答

    我們有以下在我們的MySQL兩個表導入多值字段到Solr的從MySQL: mysql> describe comment; +--------------+--------------+------+-----+---------+-------+ | Field | Type | Null | Key | Default | Extra | +--------------+-----

    0熱度

    1回答

    我必須在我的Solr(4.1.3)核心中導入大量數據。我可以用curl通過http調用(具有完全導入參數)調用自定義的requestHandler來完成此操作。 但是,這讓我得到一個http超時,因爲有很多數據。 由於我的導入文件和Solr服務器在同一臺計算機上,Solr可以直接使用磁盤文件而不通過http協議。 這可能嗎?似乎你只能通過http與Solr交談。 謝謝你的答案(如果有的話!)

    0熱度

    1回答

    我希望處理包含非常大且複雜的模式的XML文件。我知道我們可以使用DataImportHndler來處理這種類型的數據,但是在檢索結果時,我們沒有以與文件中相同的方式獲取數據。我希望得到XML格式的結果以及JSON格式。 xml的結構非常複雜,所以我無法使用XPath Parser作爲結果。 對我的問題有其他解決方案嗎?我認爲在處理龐大而複雜的數據時,我們中的幾個人遇到了這種情況。 波紋管是XML文

    1熱度

    1回答

    我有使用DataImportHandler2的Solr服務器設置。使用我目前的設置,完全導入需要8-9個小時。我想優化設置以縮短時間,但文檔不清楚各種設置的作用以及它們具有哪些副作用。 該服務器是一個m2.2xlarge AWS實例(34.2 GB RAM)。 Solr版本是3.6.1.2012.07.17.12.45.52。 Solr運行在Tomcat 7.0.30上。 Tomcat正在運行-X

    1熱度

    1回答

    我正在試驗DataStax Enterprise Search。我有一個雙節點集羣,我使用Solr控制檯Dataimport功能導入數據。根據「配置Solr」doc(http://www.datastax.com/docs/datastax_enterprise3.2/solutions/dse_search_schema#configuring-solr),我禁用了虛擬節點(num_tokens

    0熱度

    1回答

    我是做delta數據導入的。 我使用delete_item表獲取數據,我應該從solr索引中刪除數據。 我該怎麼辦查詢 TRUNCATE TABLE delete_item 執行增量導入後。 它可以用solr做,或者我應該用cron作業來做。

    0熱度

    1回答

    我使用DataImportHandler索引數據從Postgres的 我想獲得記錄創建時間,所以我可以把它比作實際的對象創建時間晚 這些記錄被更新(按id) ,因此添加 「NOW」 字段不會做的伎倆

    1熱度

    1回答

    我想設置的Solr 4.3.1在MySQL 5.6 運行WordPress的數據庫,但在嘗試完全導入: http://localhost:8983/solr/tv-wordpress/dataimport?command=full-import&debug=true 的錯誤是: org.apache.solr.handler.dataimport.DataImportHandlerExceptio

    4熱度

    2回答

    我正在努力使用SOLR和SQL數據導入。 我需要索引來自2個表的數據,第一個是「主」,第二個是「細節」。這兩個表之間的關係是1對N,它是由科拉姆執行M_ID存在於兩個表: CREATE TABLE "masters" (m_id NUMBER(10), m_code VARCHAR2(100 CHAR), m_description VARCHAR