celery

    0熱度

    1回答

    我想使用芹菜提供的任務事件捕獲任務參數。 我使用redis作爲後端和代理(Pickle作爲序列化程序)。根據文檔,可以通過偵聽task-received處理程序獲取此信息,其中將填充參數。 我面臨的問題是,對於小數據輸入,它按預期工作。當我使用一個大輸入(二進制文件 - 〜16MB)時,由事件接收的參數要小得多並且被截斷。 有人知道這個的原因嗎?謝謝您的幫助!

    1熱度

    1回答

    如果條件不符合,我想顯式地使任務失敗。例如: @app.task(bind=True, name="task.my_task", max_retries=2) def my_task(self, filename): result = get_result(filename) if result is None: self.update_state(task_id

    0熱度

    1回答

    我有我的燒瓶應用程序的藍圖。 我已經initalized將芹菜放入main.py文件: def make_celery(app): celery = Celery(app.import_name, backend=app.config['CELERY_RESULT_BACKEND'], broker=app.config['CELERY_BROKER_URL'])

    2熱度

    2回答

    我知道這將被視爲重複,但我有環顧四周問這個問題之前,但所有的問題似乎是過期或不符合我的問題在所有幫助。這是我寫這個問題之前看了: ​​ How do you unit test a Celery task?(5歲,全死鏈接) How to unit test code that runs celery tasks?(2歲) How do I capture Celery tasks during

    2熱度

    1回答

    我試圖運行花朵守護進程。讀作我的flower.service文件如下: [Unit] Description=Flower Service After=network.target [Service] Type=forking User=maas Group=maas PermissionsStartOnly=true

    0熱度

    1回答

    我想爲每個數據庫中數據可用的事件列表提供通知服務,每隔幾分鐘使用一些機制進行更新。在下一個活動前2分鐘,我需要閱讀這個數據庫並將數據發送給我的用戶,以提醒活動即將開始。這個時間不固定。他們取決於下一個事件的事件時間。 現在我正在爲訂閱的每個用戶創建一個芹菜工作者。我讓特定的芹菜工人去睡覺,直到下一個事件,此時它恢復併發送消息。 事情是這樣的: nextEventDelay = events.get

    2熱度

    1回答

    我用燒瓶和燒瓶SQLAlchemy創建背景芹菜任務來更新數據庫記錄的屬性。我現在用的是recommended documentation對芹菜的配置,這是我的代碼的簡化版本: from flask import Flask from celery import Celery def make_celery(app): celery = Celery(app.import_name,

    1熱度

    1回答

    您能解釋我必須使用什麼:task_reject_on_worker_lost或task_acks_late以及它們有何不同? 爲什麼Celery在task_acks_late爲True的異常之後不會再次運行任務? 芹菜文檔: 即使啓用task_acks_late,工作人員將確認任務時突然執行他們的工作進程退出 是什麼意思「突然退出」?會引發異常嗎? 當芹菜重任務時task_acks_late是Tr

    2熱度

    2回答

    我正在嘗試對每日運行的芹菜任務運行單元測試。 我試過導入函數並在我的測試中調用它,但這不起作用。 的任務是: @shared_task def create_a_notification_if_a_product_is_in_or_out_of_season(): """ Send a notification if a product is now in or out o

    10熱度

    3回答

    說我有這樣的任務: def do_stuff_for_some_time(some_id): e = Model.objects.get(id=some_id) e.domanystuff() ,我使用它像這樣: do_stuff_for_some_time.apply_async(args=[some_id], queue='some_queue') 我現在面臨的問題