我有一個名爲df的pyspark數據框。 ONE LINE EXAMPLE:
df.take(1)
[Row(data=u'2016-12-25',nome=u'Mauro',day_type="SUN")]
我有假期一天的清單: holydays=[u'2016-12-25',u'2016-12-08'....]
我想改用day_type爲「HOLIDAY」如果「數據」是holyd
我想用scala來訪問spark應用程序中的HIVE。 我的代碼: val hiveLocation = "hdfs://master:9000/user/hive/warehouse"
val conf = new SparkConf().setAppName("SOME APP NAME").setMaster("local[*]").set("spark.sql.warehouse.dir