celeryd

    5熱度

    2回答

    我有我的芹菜配置 BROKER_URL = 'redis://127.0.0.1:6379' CELERY_RESULT_BACKEND = 'redis://127.0.0.1:6379' 然而,每當我運行celeryd,我得到這個錯誤 consumer: Cannot connect to amqp://[email protected]:5672//: [Errno 111] Conn

    1熱度

    1回答

    我正在尋找一些建議,以將從任務生成的列表映射到芹菜中的另一個任務的最佳方式。 比方說,我有一個任務parse,它解析PDF文檔並輸出頁面列表。然後每個頁面都需要單獨傳遞給另一個稱爲feed的任務。這一切都需要去一個任務中調用process 所以,一個辦法,我能做到這一點是這樣的: @celery.task def process: pages = parse.s(path_to_pdf

    6熱度

    1回答

    在芹菜,是否有一種簡單的方法來創建一系列的任務,我可以用來自動重啓一個工人? 目標是讓我的部署在每次從github獲得新源時自動重啓所有子芹菜工作者。因此,我可以發出一個restartWorkers()任務給該機器上的管理芹菜實例,該實例會殺死(實際上停止)該機器上的所有芹菜工作進程,並使用新模塊重新啓動它們。 該計劃是爲每臺機器有: 管理節點[隊列:管理,機專用] - 負責管理機器上的工人的休息

    0熱度

    2回答

    這可能是一個Captain明顯的樣式問題,但我覺得我錯過了一些東西。 我繼承了創建Celery任務的Python WSGI應用程序。這看起來是這樣的: #web.py from bottle import route, run, request, response, abort import bottle from project.tasks import process_request

    0熱度

    1回答

    我正嘗試異步地創建一堆芹菜任務。假設有1000個異步啓動的任務,並且我只有一個celeryd進程運行來執行任務。芹菜將創建多少個線程來處理這些任務? 如果芹菜有多個線程自動啓動來處理任務隊列,如何限制芹菜在給定的時間點只執行100個線程。 謝謝。

    0熱度

    1回答

    我試圖在芹菜中守護我的任務,我已經測試了沒有守護進程並且工作得很好。 但我不能像守護進程教程說(http://docs.celeryproject.org/en/latest/tutorials/daemonizing.html#daemonizing) 我有我的文件: solr_desa.py celeryconfig.py from celery.schedules import cronta

    2熱度

    1回答

    我們的部署過程在進程列表中的所有芹菜過程中使用kill來重新啓動芹菜。 有時我看到芹菜日誌中的「工人失蹤」。如果在發生這種情況時任務正在運行,任務是否會重新運行或將丟失?我們正在使用redis。

    3熱度

    3回答

    當運行狀態命令我碰到下面的錯誤: - Am using rabbitmq as the messaging broker 我下面這個blog sudo /etc/init.d/celeryd status Error: No nodes replied within time constraint 如何調試這個錯誤? 我也檢查了這個問題。那裏的答案沒有幫助。 django/celery

    0熱度

    1回答

    我在Django,Celery,djcelery &週期性任務中苦苦掙扎。 我已經創建了一個任務來爲Adsense生成一份實時統計報告。這是我的任務: import datetime import httplib2 import logging from apiclient.discovery import build from celery.task import PeriodicTa

    15熱度

    1回答

    在爲celeryd的多文檔,我們發現這個例子: # Advanced example starting 10 workers in the background: # * Three of the workers processes the images and video queue # * Two of the workers processes the data queue with l