在Spark 2.2.0中,我看不到SPARK_WORKER_INSTANCES選項爲每個節點啓動多個工作者。我該怎麼做呢?SPARK_WORKER_INSTANCES for Spark 2.2.0
1
A
回答
1
如果你看一下spark-env.sh
文件中conf
目錄spark
文件夾非常有用,你會看到一個選項SPARK_WORKER_INSTANCES=1
。您可以將其更改爲您想要的數字。
因此,當sbin/start-all.sh
啓動火花時,應該在該機器上啓動定義的工作節點數量。
0
據星火documentation:
要啓動星火獨立集羣的啓動腳本,您應該創建一個名爲的conf文件/奴隸在你的星火目錄,它必須包含所有的機器,其中的主機名你打算啓動Spark工作人員,每行一個。如果CONF /從機不存在,則啓動腳本默認爲一臺機器(本地主機),這是測試
相關問題
- 1. Toree Jupyter for Spark 2.2.0
- 2. Spark 2.2.0 FileOutputCommitter
- 3. Spark 2.2.0 S3性能
- 4. PyQt for spyder 2.2.0 python 2.7安裝
- 5. model.predictProbabilities()for LogisticRegression in Spark?
- 6. Spark隱式$ for DataFrame
- 7. 使用Spark 2.2.0從Hive metastore 2.x讀取
- 8. Xdebug 2.2.0-dev
- 9. glMatrix 2.2.0 with RequireJS
- 10. Hadoop 2.2.0安裝
- 11. opencv 2.2.0 surfFeaturedetecor
- 12. Jplayer 2.2.0:使用JavaScript
- 13. HDFS Path for Spark Submit和Flink on YARN
- 14. For循環Spark視圖引擎/ ASP.NET MVC
- 15. Apache Phoenix for Spark不起作用
- 16. 在ubuntu上安裝Apache spark for pyspark
- 17. hadoop for spark:增加分區數
- 18. Spark Streaming Kafka java.lang.ClassNotFoundException:org.apache.kafka.common.serialization.StringDeserializer
- 19. 的JQuery 2.2.0錯誤
- 20. JQuery 3和SignalR 2.2.0
- 21. playframework 2.2.0 scala mockito test
- 22. Play Framework文檔2.2.0
- 23. Grails 2.2.0 mysql訪問權限
- 24. 如何整合Ganglia for Spark 2.1作業指標,忽略Ganglia指標的Spark
- 25. SBT無法解決依賴問題:play-java_2.10; 2.2.0 for deadbolt(Scala)2.2-RC2
- 26. Playframework 2.2.0-M1和idea ide
- 27. hadoop 2.2.0 job -list引發NPE
- 28. Phonegap 2.2.0 iOS filetransfererror code 2
- 29. sharekit的科爾多瓦2.2.0
- 30. Opencart的2.2.0谷歌分析
謝謝。我找到了。它從在線文檔中丟失。我希望我可以使用spark-submit作爲--conf key = value格式的選項,因爲我沒有權限更改spark-env.sh文件。 – SSH
你的意思是-conf spark.worker.instances = 3? – SSH
沒有。火花中不應該有這樣的配置。你可以嘗試。如果成功讓我知道:) –