1
我們正試圖用Apache Spark流代替Apache Storm。 在暴風雨中;我們根據「客戶ID」對流進行分區,以便將具有「客戶ID」範圍的消息路由到同一個螺栓(工作人員)。 我們這樣做是因爲每個工作人員都會緩存客戶詳細信息(來自數據庫)。 所以我們分成4個分區,每個螺栓(工人)將有整個範圍的1/4。將流數據粘貼到特定工作
我看過比較Spark和Storm;這是對Spark的限制。 我希望我們在Spark Streaming中有這個解決方案
什麼是流源? – maasg
Kafka,我正在研究卡夫卡的SPARK directStream,但作爲實驗,它與普通的Stream相比並不工作(https://spark.apache.org/docs/latest/streaming-kafka-integration.html) – sid