2016-04-24 109 views
0

spark創建的數據幀,試圖將它傳遞給spark.r如何將Spark Spark Scala DataFrame綁定到zeppelin的sparkR?

創建成功創建數據框的結合z

%spark 
z.put("myDF", myDF) 

和spark.r未能獲得它:

%spark.r 
z.get("myDF") 

我在哪裏得到

<simpleError in eval(expr, envir, enclos): could not find function "z.get"> 

如何獲得spark中創建的DFspark.r

+0

您使用的是飛利浦的回購?官方齊柏林飛艇回購協議仍不支持口譯員。現在有一段時間掛起的請求。我甚至不確定這個[repo](https://github.com/elbamos/Zeppelin-With-R/tree/rinterpreter)是否支持綁定。 – eliasah

+0

使用標準回購與'-Pr' – Jas

+0

好的。你可以嘗試以下方法:'.z.get(...)'在'z'前面加一個'.'作爲r解釋器嗎?通常這應該工作 – eliasah

回答

2

ZeppelinContext的使用與sparkr解釋不同的一點:

你需要的Z爲sparkr解釋前用.使用.z.get(...)。例如:

%spark.r 
.z.get("myDF")