window-functions

    0熱度

    1回答

    我有以下錯誤代碼如下選擇*:「FROM關鍵字未找到預期」 SELECT *, MAX(Salary) OVER (PARTITION BY ID_DEPT ORDER BY Salary DESC) R FROM SG_EMPLOYEES; 但是當我改變與星號每列的名稱一切正常。所以我只想了解背後的原因。

    1熱度

    1回答

    我調查移植含有這樣 count(distinct brand_id) over (partition by user_id order by order_placed_at range between 7 * 24 * 60 * 60 * 1000000 PRECEDING AND 1 PRECEDING) as last_7_day_buyer_brands 對標準SQL的窗口不同的計數一些遺留

    0熱度

    1回答

    我試圖讓此查詢以某種方式輸出。基本上,這是我得到的輸出: +-------+------------+-------------+----------+--------+ | Col_A | Date | Subscr_Id | Segment | RowNum | +-------+------------+-------------+----------+--------+ | 1 |

    4熱度

    1回答

    功能的使用需要使用rank() 我已經從dataset..need提取的列做排名一些指點。 Dataset<Row> inputCol= inputDataset.apply("Colname"); Dataset<Row> DSColAwithIndex=inputDSAAcolonly.withColumn("df1Rank", rank()); DSColAwithIndex.sho

    0熱度

    1回答

    我需要運行必須考慮到以前結果並具有起始餘額的計算。 該公式爲PREVIOUS RESULT或INITIAL IF FIRST - profit + loans。在excel中,這很容易: 1- A1=Initial 2- A2=A1 - B2:profit + C2:loans 3- A3=A2 - B3:profit + C3:loans 4- A4=A3 - B4:profit + C4

    1熱度

    1回答

    需要幫助來對數據結果進行分區以獲取按結果列值計算的行數。 結果來自多個視圖,但會用下面的小表來解釋問題陳述。 create table example (seqid bigint, itemid bigint , itemname varchar(50), itemdescription varchar(50), subitemname varchar(50), columncount bigin

    1熱度

    1回答

    我需要爲每個用戶爲每一個動作欄已更改爲值1。如果第一項是1計數以及時間計數。該行是按順序,但應以通過ACTION_DATE計算。 換句話說,我認爲需要做的事情是:GROUP BY USER_ID行,通過時間戳命令他們,再算上多久行動= 1和行動=前行! 例 create table t ( user_id int, action_date timestamp, action int );

    0熱度

    3回答

    是否可以引用窗口分區中的當前行?我想要做的東西像下面這樣: SELECT min(ABS(variable - CURRENT.variable)) over (order by criterion RANGE UNBOUNDED PRECEDING) 也就是說,我要在給定分區找到變量最接近當前值。有可能做這樣的事嗎? 舉個例子,從: criterion | variable 1 2 2 4 3

    1熱度

    3回答

    我想從表中的3列計算體積並返回唯一的體積。我們有很多行與Width,Height和Length相同,因此我的體積計算自然會有Volume的重複返回值。我認爲,爲了做到這一點,我必須用OVER,PARTITION和CTE的別名不允許在OVER WITH cteVolume (Id, Volume) AS ( SELECT Id, Width * Height * [Length] AS

    0熱度

    1回答

    我有以下數據集: id | date | state ----------------------- 1 | 01/01/17 | high 1 | 02/01/17 | high 1 | 03/01/17 | high 1 | 04/01/17 | miss 1 | 05/01/17 | high 2 | 01/01/17 | mis