0
我正在kafka運行一個spark直接流,我需要運行許多併發作業以便及時處理所有數據。在spark中,您可以將spark.streaming.concurrentJobs
設置爲要運行的多個併發作業。Spark Direct Stream併發作業限制
我想知道的是確定在給定環境中可以運行多少個並行作業的邏輯方法。對於我公司的隱私問題,我無法告訴你我擁有的規格,但我想知道哪些規格與確定限制有關,爲什麼?
當然,替代方案是我可以繼續增加和測試,然後根據結果進行調整,但我想要一個更合理的方法,並且我想實際瞭解什麼決定了限制以及爲什麼。
我用你的建議打印出'Runtime.getRuntime()。availableProcessors();'。我收到的數字遠遠高於我需要的數字,但知道我的上限是很好的。經過無數測試後,我找到了一個合理的數字。謝謝。 – user3124181