1
我所經歷的,在相關HIPI圖像處理API Hadoop的紙:雖然解釋協方差例如 http://cs.ucsb.edu/~cmsweeney/papers/undergrad_thesis.pdfHIPI api:它處理每個地圖任務的1張圖片嗎?
,白皮書說:「因爲HIPI分配每個地圖的任務一個圖像,它是簡單的隨機採樣100張圖像並執行此計算「。
但本文中顯示的第一個數字描繪了一個架構,其中多個圖像被輸入到一個地圖任務中!
令人驚訝的是,他們寫了一個圖像由一個地圖任務處理,因爲它會產生太多的地圖任務,然後他們也正在解決小文件問題。
如果這是真的,那麼序列文件與MultithreadedMapper是一個更好的選擇,我是對還是錯?
在此先感謝..