我想要一個Spark Sql的concat函數。 我已經寫了UDF作爲Spark Sql udf可變參數數
sqlContext.udf.register("CONCAT",(args:String*)=>{
String out=""
for(arg<-args)
{
out+=arg
}
out
})
sqlContext.sql("select col1,col2,CONCAT(col1,col2) from testtable")
但UDF不工作,我得到一個例外。 如果我嘗試使用固定數量的參數,那麼它工作。 我正在使用spark 1.3.1和scala 2.10.5。
有沒有人遇到這個問題或知道這個解決方案?
您能否提供問題中的例外情況? – ColinMc