0
我正在研究一個Java應用程序,其中我們有450個多線程。線程池的大小爲25.每個線程的任務是調用8到9個Web服務,獲取響應,分析響應XML並將提取的數據存儲到數據庫中。進入10到12列的數據庫表的總行數大約爲30000.有多個Java線程時使用Apache Spark的可行性
由於這裏有很多並行處理,我們應該在這種情況下引入Apache Spark嗎?維護Apache Spark集羣和所有這些會帶來額外的開銷嗎?我們如何將問題分解成Apache Spark的驅動程序?
大約需要1小時的時間才能完成當前使用Java多線程的所有任務。數據處理並沒有達到那麼高的程度。 – pankaj