2016-09-27 56 views

回答

0

Spark會自動監視每個節點上的高速緩存使用情況,並以最近最少使用(LRU)方式刪除舊數據分區。如果您想要手動刪除RDD而不是等待其從緩存中刪除,請使用RDD.unpersist()方法。

+0

驅動程序未完成。它只是等待/睡眠/掛起很長時間,然後訪問RDD。 –

+0

你確切的要求是什麼,如果你想清除它,你可以使用unpersist()。如果你什麼都沒有,只要你的驅動程序可以訪問spark上下文,它們就可以使用。 –

+0

我想使用RDD緩存更多日/月/年前(應用程序仍在運行)。在[documentation](http://spark.apache.org/docs/latest/programming-guide.html)中,我看到:「Spark會自動監視每個節點上的緩存使用情況,並以最近最少使用的方式丟棄舊數據分區,使用(LRU)時尚「。我需要知道在哪種情況下或何時放棄RDD。 –