2015-06-14 133 views
4

HDFS是建立在最有效的數據處理模式是一次寫入,多次讀取模式的基礎上的。Hadoop分佈式文件系統

我可以有任何實時的例子HDFS多少次寫入和準備好嗎?我想深入瞭解這些核心概念。

+0

你在哪裏讀的?他們說了什麼來支持這種說法? –

回答

1

HDFS應用程序需要一次寫入一次讀取多個文件訪問模型。一次創建,寫入和關閉的文件不需要更改。這種假設簡化了數據一致性問題並實現了高吞吐量數據訪問。 MapReduce應用程序或Web爬行器應用程序完全符合此模型。 (來源: HDFS Design

HDFS是圍繞文件很少更新的想法而構建的。相反,它們被讀取爲某些計算的數據,並且可能附加的數據可能會不時附加到文件中。 例如,即使數據非常大,航空公司預訂系統也不適合 DFS,因爲數據頻繁更改爲 。 (來源:Mining of Massive Datasets

另見Why HDFS is write once and read multiple times?