2017-08-01 24 views
-1

我有一個場景,其中事件中心每10秒獲取一次數據,這些數據傳遞給流分析,然後傳遞給Azure SQL Server。技術團隊提出了關於Azure SQL無法處理大量數據的擔憂,如果數據增加2,00,00,000。然後停止工作。Azure SQL無法處理傳入的流分析數據

請指導我是否是Azure SQL的實際問題,如果是的話可以請您提出解決方案。

+2

讓我明白這一點。 eventhub每十秒收到一個事件,該事件將發送到Azure Stream Analytics(ASA),並從那裏存儲在Sql Server中。在ASA作業中是否發生聚合或者存儲在Sql Server中的事件是否如此? –

+0

eventhub中有多個事件應通過流分析傳遞給Azure SQL。 –

+0

這不是我的問題的完整答案。 –

回答

2

請記住,4TB是Azure SQL Premium instance的絕對最大尺寸。如果您計劃爲您的用例存儲所有事件,那麼這將會很快填滿。考慮使用CosmosDbEvent Hub Capture,如果您確實需要無限制地存儲消息,並在使用SQL DW或ADLS處理後使用SQL進行聚合。

請記住,要優化事件中心,您必須有一個分區策略來優化吞吐量。 See the docs

+0

感謝您的回覆。 –

相關問題