0
在spark
創建的數據幀,試圖將它傳遞給spark.r
如何將Spark Spark Scala DataFrame綁定到zeppelin的sparkR?
創建成功創建數據框的結合z
:
%spark
z.put("myDF", myDF)
和spark.r未能獲得它:
%spark.r
z.get("myDF")
我在哪裏得到
<simpleError in eval(expr, envir, enclos): could not find function "z.get">
如何獲得spark
中創建的DF
spark.r
?
您使用的是飛利浦的回購?官方齊柏林飛艇回購協議仍不支持口譯員。現在有一段時間掛起的請求。我甚至不確定這個[repo](https://github.com/elbamos/Zeppelin-With-R/tree/rinterpreter)是否支持綁定。 – eliasah
使用標準回購與'-Pr' – Jas
好的。你可以嘗試以下方法:'.z.get(...)'在'z'前面加一個'.'作爲r解釋器嗎?通常這應該工作 – eliasah