真正簡單的Scala代碼文件在第一個count()
方法調用。Spark-submit無法訪問本地文件系統
def main(args: Array[String]) {
// create Spark context with Spark configuration
val sc = new SparkContext(new SparkConf().setAppName("Spark File Count"))
val fileList = recursiveListFiles(new File("C:/data")).filter(_.isFile).map(file => file.getName())
val filesRDD = sc.parallelize(fileList)
val linesRDD = sc.textFile("file:///temp/dataset.txt")
val lines = linesRDD.count()
val files = filesRDD.count()
}
我現在不想爲此設置HDFS安裝。如何配置Spark以使用本地文件系統?這適用於spark-shell
。