druid

    2熱度

    1回答

    有人可以解釋或鏈接到關於如何計算HLL集的基數可用於時間序列分析的解釋嗎? 我很確定druid.io完全是這樣,但我正在尋找一個通用的解釋,說明如何在沒有任何特定的庫/數據庫或特定的HLL實現的情況下單獨使用HLL來完成此操作。 一個天真的做法是通過在我們正在計算的東西上加上時間戳。例如,使用redis HLL API作爲一個例子,如果你正在對事件計數,從第二1000001開始到第二1000060

    8熱度

    1回答

    我試圖加載通過Apache卡夫卡數據不斷收到此錯誤: kafka.common.OffsetOutOfRangeException: offset 1003786 is out of range at kafka.log.Log$.findRange(Log.scala:46) at kafka.log.Log.read(Log.scala:264) at kafka.server.KafkaRe

    1熱度

    1回答

    我剛開始使用德魯伊,特別是使用RDruid,由於我們的數據集非常大,我想從數據庫中抽取一個更小的隨機樣本。 使用RDruid我有一個查詢,看起來像: res2 = druid.query.groupBy( url = druid.url("hostname", port=8080), dataSource = "playback", intervals = interv