2016-12-01 81 views
7

我已經部署了一個由Apache Spark引導的3節點AWS ElasticMapReduce集羣。從我的本地機器上,我可以通過SSH訪問主節點如何將PySpark(本地機器)連接到我的EMR羣集?

ssh -i <key> [email protected] 一旦SSH方式登錄的主節點,我可以通過pyspark訪問PySpark。 此外,(儘管不安全)我已配置主節點的安全組,以接受來自本地計算機的IP地址(特別是端口7077)上的TCP通信。

不過,我還是沒辦法把我當地 PySpark實例連接到我的集羣:

MASTER=spark://ec2-master-node-public-address:7077 ./bin/pyspark

在一些例外的上述命令的結果,並導致PySpark到無法初始化SparkContext對象。

有誰知道如何成功創建遠程連接,就像我上面描述的那個?

回答

2

除非您的本地計算機是羣集的主節點,否則不能這樣做。您將無法使用AWS EMR完成此操作。

+0

你能解釋一下爲什麼嗎?我也想這樣做,但需要能夠解釋爲什麼我不能這樣做,如果這種方法不起作用。 – thebigdog

+0

老實說,我不介意低調投票,但你至少可以評論爲什麼考慮答案是有效的... – eliasah

+0

這開始是funnny ...你不喜歡答案,你downvote?這是一個有效的答案! – eliasah

相關問題