我有一個名爲df的pyspark數據框。 ONE LINE EXAMPLE:
df.take(1)
[Row(data=u'2016-12-25',nome=u'Mauro',day_type="SUN")]
我有假期一天的清單: holydays=[u'2016-12-25',u'2016-12-08'....]
我想改用day_type爲「HOLIDAY」如果「數據」是holyd
我想計算Spark數據框上的組分位數(使用PySpark)。無論是近似還是精確的結果都可以。我更喜歡在groupBy/agg的上下文中使用的解決方案,以便我可以將其與其他PySpark聚合函數混合使用。如果由於某種原因無法實現,則採用不同的方法也可以。 This question是相關的,但並不指示如何使用approxQuantile作爲聚合函數。 我也有權訪問percentile_approx