我在運行火花配置時遇到內存問題,並且已將設置更改爲最大內存,但仍無法正常工作。請看看下面的問題: 命令 -Apache Spark配置
spark2-shell --conf "spark.default.parallelism=40" --executor.memory 8g --driver-memory 32g --conf "spark.ui.port=4404" --conf spark.driver.maxResultSize=2048m --conf spark.executor.heartbeatInterval=200s
錯誤 - 錯誤cluster.YarnScheduler:失落的執行9 ampanacdddbp01.au.amp.local:執行人心跳後123643 毫秒超時WARN調度。 TaskSetManager:階段0.0中丟失的任務19.0(TID 19, ampanacdddbp01.au.amp.local,executor 9):ExecutorLostFailure (executor 9 e running tasks)原因:執行器心跳超時 123643 ms WARN spark.HeartbeatReceiver:正在移除執行者3 無近期心跳:126935 ms超過超時120000 ms ERRO [R cluster.YarnScheduler:失落的執行3 ampanacdddbp01.au.amp.local:的23個任務 (1040.5 MB)比火花更大的系列化結果總大小: 執行人心跳後126935毫秒ERROR scheduler.TaskSetManager超時。 driver.maxResultSize(1024.0 MB) 錯誤scheduler.TaskSetManager:的24個 任務(1085.8 MB)序列化結果總大小比spark.driver.maxResultSize(1024.0 MB)大
請幫我配置以及如何解決這個「丟失的執行者錯誤」。
嘿感謝neeraj。我錯過了。但仍面臨丟失的執行者問題:錯誤cluster.YarnScheduler:丟失ampanacdwdbp01.au.amp.local上的執行程序2:131047後執行程序心跳超時ms WARN spark.HeartbeatReceiver:刪除沒有最近心跳的執行程序5:123861 ms超過超時120000 ms 錯誤cluster.YarnScheduler:ampanacdwdbp01.au.amp.local上丟失的執行程序5:執行程序心跳超時123861 ms後 – Arushi