我正在使用Spark 1.2.0並且沒有明確配置SPARK_LOCAL_DIRS,因此假設持久RDD將轉到/ tmp。我想堅持,並使用下面的代碼RDD:前保留後看不到Spark RDD
val inputRDD=sc.parallelize(List(1,2,3,3,4,5,6,7,8,9,19,22,21,25,34,56,4,32,56,70))
val result = inputRDD.map(x=>x*x)
println("Result count is: "+result.count())
result.persist(StorageLevel.DISK_ONLY)
println(result.collect().mkString(",,"))
println("Result count is: "+result.count())
我強迫計數()在我的RDD和堅持後,只是可以肯定的,但我仍然沒有看到任何新的文件或目錄中/ tmp目錄。當我運行我的代碼時,唯一更改的目錄是hsperfdata ....我知道它是針對JVM perf數據的。
我持續的RDD在哪裏?
什麼是您的羣集配置? – eliasah
我沒有配置羣集本身。使用IntelliJ for Scala並將Spark庫鏈接到我的項目。我還在學習,所以還沒有開始配置spark-env.sh文件。 –
開始閱讀官方文檔!我相信你缺少一些基本的概念理解。 – eliasah