我要運行一些星火Python腳本爲Oozie的工作流程,我在當地星火測試腳本,但是當我提交給Oozie的我可以」弄清楚爲什麼不工作。 我正在使用Cloudera VM,並使用Hue儀表板管理Oozie。下面是火花操作流程配置:運行火花蟒蛇的工作 - 攔截System.exit(1)
Spark Master: local[*]
Mode: client
App name: myApp
Jars/py files: hdfs://localhost:8120/user/cloudera/example.py
Main class: org.apache.spark
我想也運行一個簡單的例子,只是打印的東西,但每個腳本我提交了Oozie給了我這樣的輸出:
>>> Invoking Spark class now >>>
Intercepting System.exit(1)
<<< Invocation of Main class completed <<<
Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.SparkMain], exit code [1]
Oozie Launcher failed, finishing Hadoop job gracefully
Oozie Launcher, uploading action data to HDFS sequence file: hdfs://quickstart.cloudera:8020/user/cloudera/oozie-oozi/0000005-161228161942928-oozie-oozi-W/spark-cc87--spark/action-data.seq
Oozie Launcher ends
[編輯]
我發現工作流程只有在設置了spark master:yarn-cluster時纔會啓動,但即使在這種模式下,它仍然啓動了容器保持卡在95%完成狀態,而Spark應用程序仍處於狀態ACCEPTED狀態。我試圖改變Yarn內存參數以允許Spark動作啓動。粗壯只是打印心跳
[解決]
的Oozie的工作流程開始僅當PY文件是本地的,並手動地插入lib文件夾色調創造了工作流的文件夾之後。我認爲,最好的解決辦法仍然是寫一個shell腳本火花提交
是你的python hdfs位置正確嗎? 'hdfs:// localhost:8120/user/cloudera/example.py' – mrsrinivas
是的,以前我將路徑設置爲/user/cloudera/example.py,並得到錯誤'file not found',但現在控制檯只是說System.exit(1)。 –
「lib文件夾」,你的意思是在本地spark python文件夾中的lib文件夾? –