2017-01-12 60 views
-3

傳統數據庫選擇Hadoop的數據量有多大?與傳統數據庫相比,選擇Hadoop系統的基本基準標準參數是多少?傳統數據庫選擇Hadoop的數據量有多大?

+1

Hadoop不是數據庫。 –

+0

我建議你閱讀這個話題:http://superuser.com/questions/1158843/why-is-hadoop-not-a-data-warehouse/1163323#1163323 –

回答

1

從RDBMS到Hadoop沒有特定的「大小」。兩件事情需要知道:

  1. 他們是非常不同的(看了就知道更多)

  2. 數據RDBMS可以處理的大小依賴於數據庫服務器的能力。


傳統的數據庫是RDBMS(關係數據庫管理系統),我們插入數據行,其獲取存儲在數據庫中。您可能會更改/查詢/更新數據庫

Hadoop是一個用於存儲和處理數據(大量數據)的框架。它有兩部分:存儲(Hadoop分佈式文件系統)和MapReduce(處理框架)。

Hadoop將數據作爲文件存儲在其FS上。所以如果你想更新/改變/查詢它像RDBMS它不可能。 我們確實擁有像Hive或impala之類的Hadoop上的SQL包裝器,但它們不像數據上的RDBMS(不是大數據)那樣具有性能。

即使所有這些人都在考慮從RDBMS遷移到Hadoop,因爲RDBMS在執行大數據(bigdata)時表現不佳。 Hadoop可以用作DataStore,並且可以使用Hive/Impala運行查詢。 Hadoop不支持更新。

在RDBMS上使用Hadoop有很多優缺點。閱讀更多.. herehere