0
真的很喜歡Airflow工作流調度程序,但是難以運行簡單的DAG:「{jobs.py:538}錯誤 - Dag運行對於DAG:TEST_SCHEDULER_DAG「處於死鎖狀態。Airflow - BashOperator:獲取「DAG運行對於DAG死鎖:」錯誤
這是一個新的氣流安裝(v1.7.1.3),我已經能夠運行其他預定的DAG文件就好了。我的環境是Linux(ubuntu 16.04),python 2.7.12(anaconda),postgresql 9.5.5和使用LocalExecutor。
的DAG,我發現了僵局錯誤的是:
from airflow import DAG
from airflow.operators import BashOperator
from datetime import datetime, timedelta
default_args = {
'owner': 'owner.name',
'depends_on_past': True,
'start_date': datetime(2016, 11, 30, 8, 0, 0),
'retries': 0,
'retry_delay': timedelta(seconds=60),
}
tst_dag = DAG(dag_id='TEST_SCHEDULER_DAG',
default_args=default_args,
schedule_interval='10 * * * *')
t1 = BashOperator(
task_id='task_1',
bash_command='sleep 10',
dag=tst_dag)
t2 = BashOperator(
task_id='task_2',
bash_command='sleep 10',
dag=tst_dag)
t2.set_upstream(t1)
同樣,在第一次執行運行正常,但所有的後續執行(DagRun)顯示爲「失敗」,我看到了「僵局'在控制檯上的錯誤。
謝謝!
舊帖子,但我有同樣的問題。如果您嘗試在start_date之前在命令行中使用trigger_dag與execution_date一起運行,那麼它會死鎖,因爲depends_on_past爲True。設置depends_on_past爲False解決了我。可能與回填相同的行爲。 –