最近我有一個hadoop羣集空間不足。我嘗試清理一些日誌以獲得一些磁盤空間。我運行命令df -h
,它表明:無法在Linux中使用「du -h」查找大文件
/dev/sda1 22G 20G 1.9G 92%/
/dev/sda3 1.8T 747G 960G 44% /data/1
/dev/sdb1 1.8T 755G 986G 44% /data/2
/dev/sdc1 1.8T 754G 987G 44% /data/3
/dev/sdd1 1.8T 745G 996G 43% /data/4
的HDFS是DIR /data
這是很好的下。但根目錄/
剩下的空間很小。所以我用的工具ncdu
它可以快速地計算目錄的磁盤使用情況,它表明:
2.9TiB [##########] /data
1.5GiB [ ] /home
800.9MiB [ ] /usr
716.3MiB [ ] /var
349.1MiB [ ] /lib
293.8MiB [ ] /opt
沒有大的目錄。我也試過了諸如du -a | sort -n -r | head
之類的命令,仍然無法找到這個看不見的目錄或文件。有沒有人知道一些其他方式來找出問題所在?
感謝
我很容易重新啓動服務器並重新開始;)。但你救了我的一天! – Kasas