gaps-and-islands

    2熱度

    1回答

    有沒有辦法讓Elasticsearch在分組時考慮序列間隙? 提供了以下數據批量導入到Elasticsearch: { "index": { "_index": "test", "_type": "groupingTest", "_id": "1" } } { "sequence": 1, "type": "A" } { "index": { "_index": "test", "_type"

    0熱度

    1回答

    我有一個活動表,其中存儲了參與用戶的列表。 樣本數據: ╔════╦══════╦══════╗ ║ id ║ name ║ year ║ ╠════╬══════╬══════╣ ║ 1 ║ Arun ║ 2001 ║ ║ 2 ║ Arun ║ 2002 ║ ║ 3 ║ Arun ║ 2003 ║ ║ 4 ║ Arun ║ 2004 ║ ║ 5 ║ Arun ║ 2009 ║ ║

    3熱度

    4回答

    我有表具有以下的列: [name_of_pos] varchar, [date_from] datetime, [date_to] datetime 下面是我的樣本數據: name_of_pos date_from date_to ---------------------------------------------------------------- Asystent

    8熱度

    2回答

    CREATE TABLE entries ( id serial NOT NULL, title character varying, load_sequence integer ); 和數據 INSERT INTO entries(title, load_sequence) VALUES ('A', 1); INSERT INTO entries(title,

    0熱度

    2回答

    我幾乎是在mysql中嘗試解決此問題的新手。我有兩個表 一個是month_april和第二是month_sales Month_april表 Month_dates 2015-04-01 2015-04-02 2015-04-03 2015-04-04 2015-04-05 2015-04-06 . . . . 2015-04

    4熱度

    1回答

    目前的連勝我有一個特定用戶的以下數據 - 表溫度 - time_stamp 2015-07-19 10:52:00 2015-07-18 10:49:00 2015-07-12 10:43:00 2015-06-08 12:32:00 2015-06-07 11:33:00 2015-06-06 10:05:00 2015-06-05 04:17:00 2015-04-14 04:

    2熱度

    2回答

    我在SQL一組數據,看起來像如下: ╔═══════════╦═══════╗ ║ TimeStamp ║ State ║ ╠═══════════╬═══════╣ ║ 7:10 AM ║ A ║ ║ 7:11 AM ║ A ║ ║ 7:12 AM ║ A ║ ║ 7:13 AM ║ B ║ ║ 7:14 AM ║ B ║ ║ 7:15 AM ║ A ║ ║ 7:16 AM ║

    3熱度

    4回答

    的順序出現我有如下表2列 ID | Dept 1 | A 2 | A 3 | B 4 | B 5 | B 6 | A 我想做一個計數使得輸出應該如下表所示。 Dept | Count A | 2 B | 3 A | 1 感謝您的幫助提前!

    2熱度

    3回答

    我有一個支付每月付款的用戶數據庫。我需要檢查這些付款是否有連續性。 例如下表: +---------+------------+ | user_id | date | +---------+------------+ | 1 | 2015-02-01 | | 2 | 2015-02-01 | | 3 | 2015-02-01 | | 1 | 2015-03-01 | | 2

    4熱度

    2回答

    我需要在SQL Server 2012中編號島。島被定義爲在同一ItemId內的DateFrom和DateTo之間沒有日差距的一組行。 以下數據集: CREATE TABLE #Ranges (ItemId INT, DateFrom DATETIME, DateTo DATETIME) INSERT INTO #Ranges VALUES (1,'2015-01-31','2015-02-1