druid

    1熱度

    1回答

    如何從德魯伊分段元數據metdata查詢中檢索所有列的特定標識符。我期待結果僅包含基數和大小,但是會返回所有分析。 { "queryType":"segmentMetadata", "dataSource":"wikiticker", "intervals":["2015-09-1/2015-09-13"], "analysisTypes":["cardin

    0熱度

    1回答

    我一直在嘗試使用druid plugin in grafana。 我已經安裝了它,但我無法得到「Url」輸入框的格式是什麼? 我試過:http://host:8081(8082,8083,8090端口),它不起作用。

    -1熱度

    1回答

    我有一個用例,我不得不使用Apache Spark分析實時數據。但是我仍然對選擇我的應用程序的數據存儲有困惑。分析主要包括彙總,基於KPI的身份分析和機器學習工具來預測趨勢和分析。卡桑德拉擁有良好的支持,大型​​科技公司已經在生產中使用它。但經過研究,我發現Druid比Cassandra更快並且適用於OLAP查詢,但它的結果與Count Distinct之類的查詢不一致。 男士任何幫助相關,將不勝

    0熱度

    2回答

    我正在努力通過檢索現有記錄來更新現有記錄,更新並隨後更新記錄。 因此,我需要獲取現有數據源的粒度,這些數據源將在獲取更新的記錄時使用。

    0熱度

    1回答

    逗人 我需要從graylog2服務器數據到德(例如CPU,內存,幾臺機器的磁盤利用率)。 我在graylog市場和安靜文檔中搜索插件,我沒有找到任何解決方案來從graylog2中檢索數據。 我相信解決方案是使用graylog2中的REST API,但是如何從druid/tranquility那邊「自動化」呢?

    2熱度

    1回答

    對於daya在生成時立即發送給德魯伊的情況,一切都很好(如在IoT中)。愛它。 但現在我有不同的情況,源於後期的數據輸入。 最終用戶可以脫機(失去互聯網連接),數據存儲在她的手機中,並且只有在她重新聯機後纔會發送給德魯伊。這意味着,當她恢復互聯網時,發送給Druid的數據(例如通過Tranquility服務器)將被Druid拒絕(因爲Druid實時不接受過去的數據)。 當然,我可以設置時間戳到數據

    0熱度

    1回答

    我有一個Java應用程序,應該從卡夫卡讀取,做一些魔術並將數據發送給德魯伊。 我有Kafka工作者線程(每個主題約15個),它們使用來自Kafka的數據並最終使用Tranquility將其發送給德魯伊。 這是問題: 如果我使用一個線程 - 一切都很好。如果我與多個人合作,我會得到例外。 我想工作方式如下: 春德魯伊的服務與多家寧靜的對象。 沒有Spring,只需爲每個線程創建幾個Tranquili

    0熱度

    1回答

    我有一個特定的kafka消息格式。他們被分開了。現在解析這個使用安寧我使用下面的解析規範。 "parser" : { "type" : "string", "parseSpec" : { "timestampSpec" : { "column" : "datetime", "format" : "yyyy-MM-dd H

    0熱度

    1回答

    我們有一個擁有180億行和100列以上的OLAP表,並且Hive中的卷接近8TB。大多數列都是維度,我們也有很少的指標列。我們希望構建一個實時系統支持ad-hoc查詢來運行儀表板應用程序,其中查詢應該在10秒內執行。 我們現在正在尋找建立這樣一個實時adhoc查詢系統的選項,我們正在檢查可能的選項,並且實際上正在努力選擇一個正確的系統。我們正在看到大約 Presto,可以用來直接查詢hdfs,但我

    0熱度

    1回答

    我需要一個解決方案來存儲日誌(或多或少地遵循10個標準格式之一),最好是實時地存儲在快速查詢的數據庫中輕鬆地將結果提供給各種有線查詢。例如。在文本體中查找關鍵字的查詢,涉及多個表的查詢。 向我推薦的解決方案是MetaMarket,它似乎在風格上做了一個非常好的查詢系統的實時日誌記錄。然而,我不確定成本和是否需要這樣一個複雜的解決方案。 據我所知,metamarket的「賣點」是druid db,並