我正在面對羣集中的一個非常奇怪的問題。無法將大於100 MB的文件加載到HDFS中
每當我試圖加載任何文件到HDFS是大於100 MB(104857600個字節),它失敗,出現以下錯誤:
All datanodes are bad... Aborting.
這真是奇怪,因爲100 MB已成爲門檻用於文件大小。
即使我嘗試將文件大小增加1個單字節(104857601字節),並嘗試將其加載到HDFS中,但它會因長堆棧跟蹤而失敗。主要是說「所有datanodes都不好...正在中止」
以前有人有類似的情況嗎?
是否有可能導致此行爲導致某些配置錯誤更改?如果是,那麼限制可以攝取的數據大小的任何配置都可以改變?
感謝
只是澄清:你能加載多個文件的51 MB?你如何加載它,並立即失敗或接近尾聲?你有可能爲mappers設置一個非常低的內存限制嗎? –
你是否檢查過你的拆分大小和最大打開文件句柄限制? – mbaxi
@丹尼斯 - 我可以加載任何低於100 MB的內容。使用hadoop fs -put加載。它立即失敗。我不知道如何檢查內存限制。請澄清相同。 –