celery

    1熱度

    1回答

    如何防止在這樣的應用程序中重複芹菜日誌? # test.py from celery import Celery import logging app = Celery('tasks', broker='redis://localhost:6379/0') app.logger = logging.getLogger("new_logger") file_handler = logg

    -1熱度

    1回答

    我有一段類似的代碼後,下面的 class Job(): def start(): from threading import Timer t = Timer(10.0, self.cancel) t.start() self.status = "Started" submitChildTasks() #----> Submits chil

    2熱度

    2回答

    我可能不正確地使用芹菜。但是我正在開發的聊天機器人需要具有redis的芹菜異步任務。這是我正在使用的框架:http://microsoftbotframework.readthedocs.io/en/latest/asynctasks/。 我的特殊使用案例目前需要我運行一個芹菜任務永遠並等待一段任意的時間,範圍從30分鐘到3天。像這樣的東西 @celery.task def myAsyncMet

    0熱度

    1回答

    如何殺工人,當我重新啓動服務器,並獲得儘可能下面的語句相同的效果: pkill -9 -f 'celery worker' 從芹菜文檔: 如果工作人員考慮周到時間後不會關機,因爲卡在無限循環或類似環境中,您可以使用KILL信號強制終止工作人員: 但是我開始作爲一個systemd服務,並具有以下配置使用以下systemd單元文件來啓動它: [Unit] Description=Celery S

    11熱度

    1回答

    我們使用 django-celery==3.1.10 celery==3.1.20 python 2.7.13 我們已經寫了CustomDataBaseScheduler安排的任務,時間表完全任務上的時間。我們使用CeleryBeat Process作爲init腳本,但是celeryBeat消耗系統的全部內存,即一天24GB。 我試圖在celerybeat進程上運行pmap,但它顯示[an

    1熱度

    1回答

    我從芹菜中不同的服務器很多工人,(下面的圖片顯示) 很多任務: @task(name="task1") def task1(): ....... @task(name="task2") def task2(): ...... 我只想對「[email protected]_website運行「獨立寫作」 「工人。我應該如何配置? celery -A tasks -n

    0熱度

    2回答

    我正在創建一個自定義Celery任務類,以覆蓋在任務達到最大重試次數(on_failure)時發生的情況。如果任務失敗,我需要更新用戶模型的狀態。 下面是我的自定義任務類: class ReadyTask(Task): def run(self, user): try: user.get_results() except Exception as

    -1熱度

    1回答

    我試圖導入revoke方法芹菜,取消與一個任務: from celery.task.control import revoke 但這引發錯誤: ImportError: No module named task.control 爲什麼我得到這個錯誤?我找不到有關Celery刪除或重構此方法的任何文檔。 我使用的是celery==3.1.18,我無法升級它,因爲我使用的Django版本依賴於

    2熱度

    1回答

    我正在芹菜拍打任務和任務工作正常(在預定時間正常運行)但我無法看到任務在我的管理頁面和所有芹菜相關的表是空的在我的PostgreSQL數據庫(前django_celery_beat_periodictask) 我在這裏失蹤? 要求 Django==1.9.7 python==3.5 celery==4.1.0 django-celery-beat==1.0.1 項目樹 advocate

    2熱度

    1回答

    我正在碼頭集裝箱中運行氣流。我創建了一個單獨的容器來運行Postgres服務器和Rabbitmq服務器,使用docker網絡連接這些容器 - 通過遵循這個不錯的article。現在我的氣流碼頭集裝箱正在運行,並使用碼頭網絡連接到其他集裝箱 - 迄今爲止流程非常流暢。問題是如何在同一個容器中運行airflow webserver,airflow scheduler和airflow worker。經過