celery

    0熱度

    1回答

    我正在用Django編程灌溉系統,我使用Celery來處理異步任務。 在我的應用程序中,用戶選擇他想要激活灌溉的日期和時間,這存儲在數據庫中,他可以隨時更新它們。 我知道我可以安排這樣的任務,但我想更新時間。 from celery.task.schedules import crontab from celery.decorators import periodic_task @perio

    2熱度

    1回答

    一旦工作進程超過了限制,它會立即死亡並重新啓動嗎?或者芹菜是否允許它完成當前任務(即使它在完成時需要消耗更多的內存),然後重新啓動它?

    0熱度

    1回答

    爲Python manage.py的runserver完整輸出: Unhandled exception in thread started by <function check_errors.<locals>.wrapper at 0x0475D588> Traceback (most recent call last): File "C:\Users\Vladimir\AppDat

    0熱度

    2回答

    我有以下設置(碼頭工人): 芹菜掛瓶安裝運行於Scrapy蜘蛛 瓶設置(顯然) 瓶設置獲取請求Scrapy - >啓動工人做一些工作 現在我想更新芹菜工人的進展原始瓶設置。 但是現在沒有辦法在刮刀內部使用celery.update_state(),因爲它無法訪問原始任務(雖然它在芹菜任務中運行)。 順便說一句:我錯過了關於scrapy結構的一些事情嗎?這似乎是合理的,我可以分配的__init__內

    1熱度

    1回答

    我已經將Django從版本1.7升級到版本1.11.2,並將芹菜從版本3.1.25升級到版本4.0.1。 此升級之前,我是能夠運行芹菜工作人員這樣扔django-celery包: python manage.py celery worker -Q <my_queue> --app=proj.celery:app --concurrency=5 閱讀芹菜發行說明和文檔,我發現使用Django的O

    2熱度

    1回答

    我有一個沉重的外部庫類需要時間來初始化和消耗大量的內存。我想至少每個任務實例創建一次。 class NlpTask(Task): def __init__(self): print('initializing NLP parser') self._parser = nlplib.Parser() print('done initializing NLP

    0熱度

    1回答

    我真的很困惑這裏作爲celery的新手,並希望有一些消息broker作爲rabbitmq芹菜處理任務依賴關係當客戶端(ipython)使用芹菜畫布提交DAG(工作流程)基元,如鏈,和絃和組。假設我有一個DAG,其中A - >(B,C) - > D(鑽石DAG),其中A首先運行,然後B和C並行運行,B和C的輸出將用作在D. 輸入我能夠想出一個DAG即 wf = (A.s(2, 2) | group(

    3熱度

    1回答

    在我tasks.py文件,當我輸入hmmlearn, from hmmlearn import hmm ,並開始我的芹菜工人,我得到的以下錯誤 [2017-06-14 09:18:27,638: INFO/MainProcess] Received task: sm.tasks.mytask[4e46806e-6f0f-420f-baac-c727c2a382d4] [2017-06-14

    0熱度

    1回答

    我是新來的Python和芹菜,Redis的,所以請糾正我,如果我的理解是不正確的芹菜儲存任務結果。 我一直在調試代碼庫一種結構類似 - TaskClass - >芹菜任務 HandlerClass1, HandlerClass2 - >這些Python類擴展對象類 應用程序創建TaskClass說dumyTask實例和dumyTask創建芹菜子任務(我相信這些子任務是唯一的)說dumySubTas

    1熱度

    1回答

    我讀到消息隊列優於subprocess.Popen()。據說消息隊列是可擴展的解決方案。我想了解它是如何。 我只想過subeprocess.Popen()列出消息隊列的好處,這樣我可以說服我的上司使用消息隊列,而不是subprocess