0
我對如何在hadoop reducer中工作conext.write感到困惑。 爲什麼在hadoop reducer中沒有鎖定問題(如果有多於1個reducer),如果所有的都在寫入HDFS中的同一個文件?爲什麼在做hadoop reducer中的context.write時沒有鎖定問題
通常,如果我們要在hadoop映射器/縮減器中自己寫入同一個文件,我們會收到鎖定錯誤,我們無法同時寫入同一個文件。
我對如何在hadoop reducer中工作conext.write感到困惑。 爲什麼在hadoop reducer中沒有鎖定問題(如果有多於1個reducer),如果所有的都在寫入HDFS中的同一個文件?爲什麼在做hadoop reducer中的context.write時沒有鎖定問題
通常,如果我們要在hadoop映射器/縮減器中自己寫入同一個文件,我們會收到鎖定錯誤,我們無法同時寫入同一個文件。
謝謝指出。我想我錯過了每個reducer寫入一個名爲part-nnnnn的單獨文件的要點 – figaro