3
我試圖使用數據磚過濾下列數據的日期範圍,數據磚以響應返回null。 我的CSV數據是這樣的:如何在Spark SQL中按日期範圍進行過濾
ID, Desc, Week_Ending_Date
100, AAA, 13-06-2015
101, BBB, 11-07-2015
102, CCC, 15-08-2015
103, DDD, 05-09-2015
100, AAA, 29-08-2015
100, AAA, 22-08-2015
我的查詢是:
df.select(df("ID"), date_format(df("Week_Ending_Date"), "yyyy-MM-dd"))
.filter(date_format(df("Week_Ending_Date"), "yyyy-MM- dd").between("2015-07-05", "2015-09-02"))
任何幫助深表感謝。
它的工作原理,謝謝,你能不能給我用DataFrame而不是'parallelize'? – Sivailango
@Sivailango我不明白你的意思是DataFrame而不是並行化?數據值是一個DataFrame。 – eliasah
代替在列表並行化值,已經我已經設置在數據幀的那些樣值的'VAR DF = sqlContext.read.format(「com.databricks.spark.csv」) \t \t \t \t \t。選項(」頭」, 「真」) \t \t \t \t \t。選項( 「則InferSchema」, 「真」) \t \t \t \t \t .load( 「test.csv」);'這是我的數據幀,我已裝載數據由https://github.com/databricks/spark-csv插件 – Sivailango