我使用的是火花的工作,使用下面的代碼行從聲明區讀取csv文件數據以及應對這些數據到HDFS: val conf = new SparkConf().setAppName("WCRemoteReadHDFSWrite").set("spark.hadoop.validateOutputSpecs", "true");
val sc = new SparkContext(conf)
val rd
HDFS -ls命令不工作,但Hadoop的FS -ls工作正常,我得到了以下錯誤,當使用 hdfs -ls.
Unrecognized option: -ls Error: Could not create the Java Virtual Machine. Error: A fatal exception has occurred. The program will exit. 你能不能請