celery-task

    4熱度

    1回答

    我正在使用芹菜3.0.12。 我有兩個隊列:Q1,Q2。 總的來說,我把第一季度的主要任務放在了第二季度的子任務上。 我不想存儲子任務的任何結果。所以我的子任務有裝飾器@ celery.task(ignore_results = True)。 我的主要任務現在應該等到子任務完成。因爲我寫不出結果。我不能使用:AsyncResult。有沒有一種方法可以在主任務中等待,直到子任務完成而不將狀態存儲到後

    0熱度

    1回答

    我有一個與sqlalchemy和芹菜工作人員啓動和運行的燒瓶應用程序。我使用redis作爲我的經紀人。每次有人在對話中提交新消息時,都會啓動一名工作人員,並且應該向參與對話的所有人發送通知郵件。因此它連接到數據庫並獲取所有相關的電子郵件地址。 不幸的是,似乎有一個隨機因素決定,芹菜是否知道發送郵件的任務。一些開始後,它完美的(有時),一些開始後,它根本不工作。我得到,當它不工作的錯誤是: [201

    6熱度

    1回答

    我通過使用芹菜組作爲official documentation 描述我還存儲所述組(使用taskset)ID轉換爲分貝,以輪詢芹菜上使用taskset狀態時開始一組芹菜任務。 job = group([ single_test.s(1, 1), single_test.s(1, 2), single_test.s(1, 3), ]) result

    0熱度

    1回答

    我正在嘗試寫celery的定期cron任務,該任務應該在每週12點到12點之間每小時執行一次。這是一個24小時的時間,但跨越兩個不同的日子。是否有可能安排此像 @periodic_task(run_every=crontab(<an expression equivalent to stated above>)) 在我寫兩個任務的那一刻單任務:一個與裝飾: crontab(minute='0',h

    2熱度

    1回答

    我想更好地理解有關結果和芹菜錯誤的常見策略。 我看到結果具有狀態/狀態並存儲結果(如果需要) - 何時使用此數據?任務中是否應該包含錯誤處理和數據存儲? 下面是一個示例場景,在情況下,它有助於更​​好的理解我的目標: 我有goeocodes用戶地址的地理編碼任務。如果任務失敗或成功,我想更新數據庫中允許用戶知道的字段。 (錯誤處理)成功時,我想要將地理編碼數據插入數據庫(數據存儲) 應該採取什麼方

    0熱度

    1回答

    今天我收到了Amazon SQS的每月賬單,我很驚訝地看到600.000個請求用於我的隊列。 我所做的只是每分鐘運行一項任務。這是如何加起來600.000個請求? @celery.task(name='tasks.check_for_events') @periodic_task(run_every=timedelta(minutes=1)) def check_for_events():

    5熱度

    1回答

    內部我想使用一組(或組塊)一個鏈內,如: chain(getRange.s(3), GROUP() , xsum.s()) GROUP()哪裏是一組double()任務,即group(double(0),double(1),double(2))。 在How to chain a Celery task that returns a list into a group?中發佈了類似的問題,但未解

    0熱度

    1回答

    我試圖在芹菜中守護我的任務,我已經測試了沒有守護進程並且工作得很好。 但我不能像守護進程教程說(http://docs.celeryproject.org/en/latest/tutorials/daemonizing.html#daemonizing) 我有我的文件: solr_desa.py celeryconfig.py from celery.schedules import cronta

    0熱度

    1回答

    我有一個django芹菜視圖,它執行某些任務,並在任務完成後成功將其寫入數據庫。 我這樣做: result = file.delay(password, source12, destination) 而且, if result.successful() is True: #writes into database 但是任務已完成執行後不進入,如果condition.I試圖用re

    15熱度

    1回答

    在爲celeryd的多文檔,我們發現這個例子: # Advanced example starting 10 workers in the background: # * Three of the workers processes the images and video queue # * Two of the workers processes the data queue with l