我一直與S3測試Ceph的Ceph的S3存儲空間沒有釋放
我的測試ENV是10GB的datadisk每個所以30GB 其設置爲重複3次3node。所以我有「15290 MB」空間可用。
我拿到了S3存儲工作,並已經上傳的文件,並填補了存儲,試圖刪除上述文件,但在磁盤仍顯示爲滿
cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8
health HEALTH_ERR
3 full osd(s)
full flag(s) set
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0}
election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3
osdmap e119: 3 osds: 3 up, 3 in
flags full,sortbitwise,require_jewel_osds
pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects
14715 MB used, 575 MB/15290 MB avail
164 active+clean
我不知道怎麼弄的磁盤空間回來了?
可以在我做了什麼錯誤或遺漏
感謝淨化事情傷心地工作着在現場環境中這樣做。 但感謝的命令和理解我運行了一些測試,讓我的頭周圍 – nig007