Guy我應該通過一些公用密鑰(我們正在談論多個REST服務調用的多個sql表)與一些REST服務的json加入一些巨大的SQL表。事情是這個數據不是實時/無限流,也不認爲我可以通過連接列來排序REST服務的輸出。現在,愚蠢的做法是將所有數據和行匹配起來,但這意味着將所有內容都存儲在內存/卡桑德拉或Redis等存儲中。但是,我想知道flink是否可以使用流窗口的某個王加入說X元素(所以真的只是在RAM中存儲這些元素在一個點),但也存儲不匹配的元素爲以後的匹配,也許某種的哈希映射。這就是我所說的聰明加入。apache flink可以用來加入巨大的非實時數據嗎?
王認爲