13
火花的1.5.0似乎可以編寫自己的UDAF的對DataFrames定製的聚合: Spark 1.5 DataFrame API Highlights: Date/Time/String Handling, Time Intervals, and UDAFsPython API中提供了Spark SQL UDAF(用戶定義的聚合函數)嗎?
如果此功能是Python API所支持然而我不清楚?
火花的1.5.0似乎可以編寫自己的UDAF的對DataFrames定製的聚合: Spark 1.5 DataFrame API Highlights: Date/Time/String Handling, Time Intervals, and UDAFsPython API中提供了Spark SQL UDAF(用戶定義的聚合函數)嗎?
如果此功能是Python API所支持然而我不清楚?
您無法在Spark 1.5.0-2.0.0中定義Python UDAF。有一個JIRA跟蹤此功能要求:
解決了與目標「後」,所以它可能不會很快出現。
您可以從PySpark使用Scala的UDAF - 它被描述Spark: How to map Python with Scala or Java User Defined Functions?
不,它不支持。你可以打電話給斯卡拉UDAF,但它不漂亮。查看[我的答案](http://stackoverflow.com/a/33257733/1560062)[Spark:如何將Python與Scala或Java用戶定義的函數進行映射?](http://stackoverflow.com/q/33233737/ 1560062)爲一個完整的例子。 – zero323
@ zero323現在1.6 spark還是1.61? – stackit
@stackit不是1.6.x也不是2.0。 – zero323