在Hadoop fs中如何查找特定文件的塊大小?Hadoop fs查找塊大小?
我是在一個命令行主要感興趣的,是這樣的:
hadoop fs ... hdfs://fs1.data/...
但它看起來像一個不存在。有沒有Java解決方案?
在Hadoop fs中如何查找特定文件的塊大小?Hadoop fs查找塊大小?
我是在一個命令行主要感興趣的,是這樣的:
hadoop fs ... hdfs://fs1.data/...
但它看起來像一個不存在。有沒有Java解決方案?
似乎Hadoop的FS沒有期權做到這一點。
但是hadoop fsck可以。
你可以試試這個
$HADOOP_HOME/bin/hadoop fsck /path/to/file -files -blocks
我認爲它應該是可行的有:
hadoop fsck /filename -blocks
,但我得到連接被拒絕
我已經完成了測試,是的,它可以工作。你的意思是拒絕連接或拒絕許可? –
在其他的答案中fsck
命令列出塊,讓你看到的塊數。然而,看看有沒有額外的克魯夫特的實際塊大小做:
hadoop fs -stat %o /filename
默認塊大小爲:
hdfs getconf -confKey dfs.blocksize
你指的是特定的文件的大小? –
不,塊大小。默認的HDFS塊大小爲64MB,可以更改。 –