0
我有一個簡單的工作流程(見下文),它運行一個shell腳本。 shell腳本運行pyspark腳本,該腳本將文件從本地移動到hdfs文件夾。Oozie從shell作業行爲中禁止登錄?
當我運行shell腳本本身時,它完美地工作,日誌通過在shell腳本中> spark.txt 2> & 1重定向到一個文件夾。
但是,當我提交oozie工作與以下工作流,從殼的輸出似乎被抑制。我試圖重定向所有可能的oozie日誌(-verbose -log)> oozie.txt 2> & 1,但它沒有幫助。
工作流成功完成(狀態SUCCESSEDED,沒有錯誤日誌),但我看到,該文件夾沒有複製到hdfs,但是當我獨自運行它(不通過oozie),一切都很好。
<action name="forceLoadFromLocal2hdfs">
<shell xmlns="uri:oozie:shell-action:0.1">
<job-tracker>${jobTracker}</job-tracker>
<name-node>${nameNode}</name-node>
<configuration>
<property>
<name>mapred.job.queue.name</name>
<value>${queueName}</value>
</property>
</configuration>
<exec>driver-script.sh</exec>
<argument>s</argument>
<argument>script.py</argument>
<!-- arguments for py script -->
<argument>hdfsPath</argument>
<argument>localPath</argument>
<file>driver-script.sh#driver-script.sh</file>
</shell>
<ok to="end"/>
<error to="killAction"/>
THX很多!
編輯:THX的意見,我發現完整日誌
yarn -logs -applicationId [application_xxxxxx_xxxx]
Oozie的作業紗線容器內運行,與標準錯誤/ StdOut被重定向到該容器的** YARN日誌**(一大堆Oozie調試信息也被StdOut注入;你的應用程序輸出得到一個特定的前綴,這樣你就可以將它從混亂中解脫出來)。 –
參考我有關如何從YARN命令行訪問這些日誌的詳細信息,請訪問https://stackoverflow.com/questions/34344114/oozie-launch-map-reduce-from-oozie-java-action/34359732。或者,使用HUE儀表板點擊您從Oozie工作流程到Oozie操作,YARN應用程序,然後到YARN應用程序日誌的方式。 –
Thx。我做了紗線 - 日誌... thx –