我試圖運行使用bin/spark-submit的spark應用程序。當我在我的本地文件系統中引用我的應用程序jar時,它可以工作。然而,當我複製我的應用程序JAR在HDFS目錄,我得到以下異常:當應用程序jar在hdfs中時,spark-submit不工作
警告:跳過遠程罐子HDFS://本地主機:9000 /用戶/ HDFS /瓶/簡單項目1.0 -SNAPSHOT.jar。 拋出java.lang.ClassNotFoundException:com.example.SimpleApp
這裏的命令:
$ ./bin/spark-submit --class com.example.SimpleApp --master local hdfs://localhost:9000/user/hdfs/jars/simple-project-1.0-SNAPSHOT.jar
我使用Hadoop版本2.6.0,火花1.2.1版
你最終在這裏決定了什麼?你是否切換到YARN或找到另一種解決方法?下面的Sanjiv指出了一個似乎與外圍相關的錯誤。你嘗試過--deploy-mode集羣嗎?謝謝,有趣的錯誤,如果它真的是一個錯誤,似乎並沒有直接提交給JIRA。也許檢查[this](https://issues.apache.org/jira/browse/SPARK-10643) – JimLohse