Hadoop確保來自同一文件的不同塊將存儲在羣集中的不同計算機上嗎?顯然,複製塊將位於不同的機器上。HDFS上的文件塊
1
A
回答
1
不可以。如果你看HDFS Architecture Guide,你會看到(在圖中)文件part-1
的複製因子爲3,並且由標記爲2,4和5的三個塊組成。注意塊在一種情況下,2和5在同一Datanode上。
0
0
相反,我認爲。拋開復制,每個datanode將每個數據塊作爲自己的文件存儲在本地文件系統中。
0
那麼Hadoop不能保證。由於這是一個巨大的安全性損失,如果您在作業中請求文件,則會導致完成的作業失敗。只是因爲一個塊不可用。無法想象你的問題的用例,也許你可以更多地瞭解你的意圖是什麼。
相關問題
- 1. 小文件和HDFS塊
- 2. 文件數與HDFS中的塊數
- 3. HDFS中塊的原始文件名
- 4. 運行在HDFS上的特定文件/塊的map-reduce任務
- 5. 何處上傳hdfs文件?
- 6. 上傳文件到hadoop hdfs?
- 7. HBase + HDFS - 缺少hdfs塊
- 8. 解密HDFS上的PGP文件
- 9. 無法查看HDFS上的文件
- 10. HDFS塊大小和文件大小的問題,文件小於塊大小
- 11. HDFS小文件
- 12. 爲什麼「每HDFS文件1分HDFS塊」是在地板公文更好
- 13. HDFS塊重啓
- 14. HDFS塊問題
- 15. HDFS塊創建
- 16. Hadoop HDFS文件分成哪些Java文件塊
- 17. 將本地文件複製到hdfs需要在hdfs集羣上?
- 18. 蟒蛇HDFS遠程上傳文件到HDFS
- 19. Bash腳本上傳文件到hdfs
- 20. 在HDFS上合併壓縮文件
- 21. 使用Python在hdfs上讀寫文件
- 22. HDFS:文件上傳後未分發
- 23. hadoop命令在HDFS上拆分文件
- 24. 使用mapreduce在hdfs上修改文件
- 25. 處理HDFS文件
- 26. Hdfs文件權限
- 27. HDFS文件比較
- 28. HDFS不復制塊
- 29. HDFS塊有多大?
- 30. hdfs中的文件路徑
謝謝托馬斯。我真的沒有想到一個用例。只是一般疑惑。 – Meg 2011-02-04 23:30:04