我使用dstream.saveAsObjectFiles("/temObj")
方法在hdfs中顯示了多個文件,並在spark spark中保存目標文件。如何在Apache Spark中刪除多個以hdfs開頭的多個hdfs目錄
temObj-1506338844000
temObj-1506338848000
temObj-1506338852000
temObj-1506338856000
temObj-1506338860000
我想在全部閱讀後刪除所有temObj文件。賭注的方式是什麼?我試圖
val hdfs = org.apache.hadoop.fs.FileSystem.get(new java.net.URI("hdfs://localhost:9000"), hadoopConf)
hdfs.delete(new org.apache.hadoop.fs.Path(Path), true)
但它只能一次刪除文件夾ANE
是否有可能刪除時,在路徑通配符'*'用? – Shaido
我試過了,但沒有成功 –