worker

    3熱度

    1回答

    我有一個利用web層和worker層的彈性beanstalk應用程序。作業通過SQS從Web層卸載到工作層,以保持面向網絡的服務器的速度。兩種環境都使用完全相同的代碼庫,並在其下使用RDS實例。 我需要在工作層的引導服務器上運行cron作業。我創建了一個.ebextensions用它叫做crontab文件,如下所示(這是一個Laravel Web應用程序)文件夾: * * * * * root p

    0熱度

    1回答

    如果可能的話,一直在環顧文檔。他們可行嗎? http://www.w3.org/TR/workers/ https://developer.mozilla.org/en-US/docs/Web/API/Web_Workers_API/basic_usage 看起來他們是unavaiable爲試圖delcare一個拋出 ReferenceError: "Worker" is not defined.

    1熱度

    1回答

    這很奇怪。我正在使用youtube JavaScript API在我的網站上嵌入播放列表。除了我最近檢查我的工人正在發生的事情之外,這將會很好。看起來API決定將它的消息發送給其中的一個。 這裏是我的工作人員收到的數據。 bubbles: falsecancelBubble: falsecancelable: falsecurrentTarget: Windowdata: "{"event":"i

    0熱度

    1回答

    我想通過ironMQ的消息隊列功能接收有效負載時在工作中啓動進程。使用ironMQ可以創建一個推送隊列,但需要一個http端點。 是否可以爲heroku工作人員設置http端點,還是隻需要從工作人員中拉出隊列?

    3熱度

    1回答

    我有一個Heroku工人測功機不打印或記錄任何事情Heroku日誌。 我設置的工人在我的procfile使所有logging.info()命令應該工作: worker: celery -A tasks worker -B --loglevel=info 這裏是tasks.py文件: from celery import Celery from celery.decorators import

    1熱度

    1回答

    我見過約resque一些文檔和所有的提示告訴這個命令運行隊列: rake resque:work QUEUE='*' 這是什麼命令真的在做什麼?它只是在一份工作中運行所有隊列嗎? 我沒有找到關於如何逐個運行隊列的文檔。但是,考慮到我將在同一臺服務器上運行它們,是否有任何性能差異?

    7熱度

    2回答

    我想知道如何在Spark中使用collectAsMap。更具體地說,我想知道所有分區的數據聚合會在哪裏發生?聚集要麼發生在主人身上,要麼發生在工人身上。在第一種情況下,每個工作人員在主人上發送其數據,當主人從每個工作人員收集數據時,主人將彙總結果。在第二種情況下,工作人員負責彙總結果(在他們之間交換數據之後),然後將結果發送給主人。 對我來說,找到一種方法是非常重要的,因爲主人能夠獨立收集每個分區

    0熱度

    1回答

    我想執行一個簡單的應用程序示例代碼與火花。使用火花提交執行作業。 火花提交--class 「SimpleJob」 --master火花://:7077目標/斯卡拉2.10 /簡單project_2.10-1.0.jar 15/03/08 23:21:53 WARN NativeCodeLoader: Unable to load native-hadoop library for your pla

    6熱度

    2回答

    我想知道 1. labs 2. workers 3. cores 4. processes 之間的區別是,它只是語義或他們都不同?

    5熱度

    1回答

    因此,我有一個玩具django + gunicorn項目。 我想有一個統計模型,它只是一次加載到內存中,然後在worker/threads中重用。 如何/在哪裏定義應用程序級別變量? 我試着把它放在settings.py上,也是在wsgi.py上