2015-01-21 61 views
2

我正在使用Apache Spark構建應用程序。爲了從其他應用的RDDS我想兩種方法:Tachyon:無法重命名錯誤

  1. 使用超光速粒子
  2. 使用a spark-jobserver

我是新來的Tachyon。我完成了a Running Tachyon on a Cluster中的以下任務

我可以從master:19999 URL訪問UI。

從我成功地創建一個目錄./bin/tachyon tfs mkdir /Test 的超光速粒子的目錄,但在試圖做copyFromLocal命令,我發現了以下錯誤:

FailedToCheckpointException(message:Failed to rename hdfs://master:54310/tmp/tachyon/workers/1421840000001/8/93 to hdfs://master:54310/tmp/tachyon/data/93) 
+0

我有完全相同的問題。在失敗的copyFromLocal之後,使用'tfs ls'將文件顯示在「In Memory」中,但是當我嘗試使用'tfs cat'其中一個文件時,報告「不完整」:_文件/data/test.txt不是完成。_ – taranaki 2015-07-09 15:38:43

回答

0

你最有可能在不同的運行超光速粒子和火花jobserver用戶,並將HDFS作爲您的underFS。

檢出https://tachyon.atlassian.net/browse/TACHYON-1339及相關補丁。

簡單的解決方法是以相同的用戶身份運行tachyon和您的火花作業服務器。

(稍微)更難的方法是移植補丁並重新編譯spark,然後用補丁客戶端sjs。