lucidworks

    1熱度

    1回答

    我正在製作spark java腳本。 我需要使用Lucidworks(從一個數據幀)的數據插入到Solr的集合 - 火花Solr的工具(https://github.com/lucidworks/spark-solr) 我的schema.xml: <schema name="MY_NAME" version="1.6"> <field name="_version_" type="lon

    0熱度

    1回答

    我正在爲一組〜20,000個文檔製作一個搜索引擎。這些主要是大型文件,涵蓋一系列主題,但其中大約3000個更具體。爲了與其他較大的文檔相比增加相關性分數,我希望爲所有特定文檔提供預查詢提升。 這是一個合法的方法嗎?如果是這樣,solr或lucidworks融合將如何完成?

    0熱度

    1回答

    我試圖運行的融合,但我不斷收到此錯誤:error starting api: api service (pid 8156) failed 飼養員和Solr啓動,但是當涉及到API我得到這個錯誤。任何見解都被認可。

    0熱度

    1回答

    我已經開始使用Lucidworks Fusion(2.1.2),並且使用Groovy進行了最爲舒適的黑客攻擊。附註:python'requests'處理這個無縫,但我固執,不想使用python ... 融合有前途API,我期待着與Groovy合作。 如何最好地連接到融合使用Groovy的Fusion身份驗證的API(以groovy-ish的方式)? 我嘗試了幾種方法(最後發現了一些比工作)。我歡迎

    6熱度

    1回答

    我想知道使用Fusion代替常規Solr有哪些優缺點?你們可以舉一些例子(比如一些可以使用Fusion輕鬆解決的問題)?

    0熱度

    1回答

    我們使用Lucid工程Solr版本4.6。 我們的源系統基本上將數據存儲到兩個目標系統(一個通過實時,另一個通過批處理模式)。數據通過實時路由被攝入Solr。 我們需要定期將攝取在Solr中的數據與攝入到批處理系統中的數據同步。 我們目前試圖評估的設計是將批量系統中的數據導入到另一個Solr集合中,但真的不知道如何同步兩個集合(即實時數據與第二個是通過批量導入)。 我讀過數據導入處理程序,但是這會

    0熱度

    1回答

    我遇到了這個問題:Solr:Solr只能拼寫檢查並根據數據庫中的文件提供建議。但是,我想添加一個英文字典,因此即使數據庫中不存在該字詞,Solr也可以根據英文字典提供建議。 我知道我必須這樣做solrconfig.xml中使用FileBasedSpellChecker: <searchComponent name=」spellcheck」 class=」solr.SpellCheckCompone

    0熱度

    1回答

    如果看到Lucidworks Time Based Partitioning或Large Scale Log Analytics with Solr,則會按時間劃分多個solr「集合」。 我的問題是 爲什麼不能在這種情況下,只需要創建基於時間的多個碎片? 在多個集合的情況下,跨多個集合/時間的查詢將如何完成?

    0熱度

    1回答

    我有其中有一組值的Solr的領域的搜索結果。 solr能否返回基於該字段而變化的結果? 例如:我的字段包含「ValueA」,「ValueB」和「ValueC」。所以,如果行設置爲3,那麼,而不是返回所有結果「值a」應該給我一個從每個字段的值(考慮到他們有相同的分數)

    3熱度

    2回答

    我正在使用此項目:https://github.com/lucidworks/hadoop-solr 有誰知道在哪個值中保存了正在處理的文檔的名稱(或路徑)。我想將此值檢索到Solr Admin(將其名稱添加到我的模式中)。這可能嗎? 示例:我希望能夠看到文檔的名稱,從中查詢返回相同的結果。 我運行此命令的項目: hadoop jar solr-hadoop-job-2.2.5.jar