如果您想知道我如何解決它,請轉至here。RemoteException(org.apache.hadoop.ipc.StandbyException):操作類別READ在狀態備用中不受支持
我有一個oozie工作流程。裏面有一個shell動作。
<action name="start_fair_usage">
<shell xmlns="uri:oozie:shell-action:0.1">
<job-tracker>${JOB_TRACKER}</job-tracker>
<name-node>${NAME_NODE}</name-node>
<exec>${start_fair_usage}</exec>
<argument>${today_without_dash}</argument>
<argument>${yesterday_with_dash}</argument>
<file>${start_fair_usage_path}#${start_fair_usage}</file>
<capture-output/>
</shell>
<ok to="END"/>
<error to="KILL"/>
</action>
此操作啓動腳本。 start_fair_usage.sh
echo "today_without_dash="$today_without_dash
echo "yeasterday_with_dash="$yeasterday_with_dash
echo "-----------RUN copy mta-------------"
bash copy_file.sh mta $today_without_dash
echo "-----------RUN copy rcr-------------"
bash copy_file.sh rcr $today_without_dash
echo "-----------RUN copy sub-------------"
bash copy_file.sh sub $today_without_dash
繼而啓動另一個腳本。 copy_file.sh
# directories in which where sub mtr rcr files are kept
echo "directories"
dirs=(
/user/comverse/data/${2}_B
)
# clear the hdfs directory of old files and copy new files
echo "remove old files "${1}
hadoop fs -rm -skipTrash /apps/hive/warehouse/amd.db/fair_usage/fct_evkuzmin/file_${1}/*
for i in $(hadoop fs -ls "${dirs[@]}" | egrep ${1}.gz | awk -F " " '{print $8}')
do
hadoop fs -cp $i /apps/hive/warehouse/amd.db/fair_usage/fct_evkuzmin/file_${1}
echo "copy file - "${i}
done
echo "end copy "${1}" files"
如何啓動工作流程以便它可以複製文件?
異常來自Hadoop環境。 Oozie正試圖連接Active Namenode的Standby Namenode。檢查Namenode主機信息是否正確。 – franklinsijo
@frank我無法找到StandBy和Active節點之間有什麼不同。但是當我嘗試在同一個節點上運行一個簡單的腳本'echo'hi''時,它就可以工作。 –
閱讀關於HDFS高可用性 – franklinsijo