我有一個文件,有40 000行,在每一行中單個字,彼此。Hadoop + Spark - 一旦應用程序將正確啓動一次將顯示錯誤
我開始的Hadoop,主人,奴隸 - 一切正常:
start-dfs.sh;start-yarn.sh;/opt/spark/sbin/start-master.sh;/opt/spark/sbin/start-slaves.sh
我運行示例應用程序,它計算的話:
/opt/spark/bin/spark-submit --class org.apache.spark.examples.JavaWordCount --deploy-mode cluster --master yarn --driver-memory 2g --executor-memory 2g /opt/spark/examples/jars/spark-examples_2.11-2.0.0.jar hdfs://hadoop-master:9000/input/outputData.fcs
,我有問題:一旦應用程序將正常啓動並顯示結果,一旦顯示錯誤(並且我不會在重新啓動之間進行任何更改):
ERROR shuffle.RetryingBlockFetcher: Exception while beginning fetch of 1 outstanding blocks
java.io.IOException: Failed to connect to iws2/172.29.77.40:43688
我不知道什麼是錯的。下面我的配置文件:
所有奴隸和主人在文件中的「主人」,「奴隸」設置correctry。
不客氣。但是,答案部分不適用於問題。很高興它的工作。你是否想讓我用解決方案更新我的答案(這樣你就可以接受它),或者你想做其他事情? – gsamaras