我正在使用AWS EC2實例,其中安裝了Spark 2.2.0,並且有8 GB的RAM和2個內核。Spark shell不執行'初始作業沒有接受任何資源'
我下面這個教程來用一下pyspark外殼:
https://sparkour.urizone.net/recipes/managing-clusters/
我開始主,我開始一個從工人,他們出現在Web UI上。
然而,在殼,當我嘗試像執行命令:
>>> tf = spark.sparkContext.textFile('README.md')
>>> tf.count()
我得到這樣的:
[階段0:>(0 + 0)/ 2]
17/08/29 11:02:51 WARN TaskSchedulerImpl:初始作業未接受任何資源;檢查你的集羣用戶界面,以確保 工人註冊,並擁有足夠的資源
在我spark-env.sh,我設置的變量是這樣的:
SPARK_LOCAL_IP=127.0.0.1
SPARK_MASTER_HOST=127.0.0.1
SPARK_WORKER_INSTANCES=2
SPARK_WORKER_MEMORY=1000m
SPARK_WORKER_CORES=1
所以,我不知道爲什麼有一個問題。我猜,pyspark shell並沒有正確地到達worker slave。
你可以試試 https://stackoverflow.com/questions/42863521/why-does-my-pyspark-just-hang-as-accepted-in-yarn-when-i-launch-it/43225607#43225607 ? –
我修改了spark-defaults.conf來添加 'spark.driver.memory 3g',但它仍然不起作用 – Ahmedn1