什麼是在Scala API中對多個列進行過濾的過濾語法?如果我想要做這樣的事情:Spark SQL過濾器多個字段
dataFrame.filter($"col01" === "something" && $"col02" === "something else")
或
dataFrame.filter($"col01" === "something" || $"col02" === "something else")
編輯:
這是我原來的代碼如下所示。一切都以字符串形式出現。
df.select($"userID" as "user", $"itemID" as "item", $"quantity" cast("int"), $"price" cast("float"), $"discount" cast ("float"), sqlf.substring($"datetime", 0, 10) as "date", $"group")
.filter($"item" !== "" && $"group" !== "-1")
看起來不錯。你遇到任何問題嗎? – zero323
如果它不起作用,您可能會丟失'import sqlContext.implicits._',其中'sqlContext'是'SQLContext'或'HiveContext'的實例。 –
我得到「值&&不是String的成員」。解決方法是將每個語句包裝在括號中。 – gstvolvr