2017-10-20 102 views
0

我一直與S3測試Ceph的Ceph的S3存儲空間沒有釋放

我的測試ENV是10GB的datadisk每個所以30GB 其設置爲重複3次3node。所以我有「15290 MB」空間可用。

我拿到了S3存儲工作,並已經上傳的文件,並填補了存儲,試圖刪除上述文件,但在磁盤仍顯示爲滿

cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8 
health HEALTH_ERR 
     3 full osd(s) 
     full flag(s) set 
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0} 
     election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3 
osdmap e119: 3 osds: 3 up, 3 in 
     flags full,sortbitwise,require_jewel_osds 
    pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects 
     14715 MB used, 575 MB/15290 MB avail 
      164 active+clean 

我不知道怎麼弄的磁盤空間回來了?

可以在我做了什麼錯誤或遺漏

回答

0

由於朱利安這個信息

你是正確的與步驟1和2

當您運行

radosgw管理員選區候選人名單--include-所有

你看到一個例子,如

[ { 「標記」: 「17925483-8ff6-4aaf-9db2-1eafeccd0454.94098.295 \ u0000的」, 「時間」: 「2017年10月27日13:51:58.0.493358s」, 「OBJ文件」 : { 「池」: 「default.rgw.buckets.data」, 「OID」:「17925483-8ff6-4aaf-9db2-1eafeccd0454.24248.3__multipart_certs/boot2docker.iso.2〜UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp。1" , 「關鍵」: 「」, 「實例」: 「」 },{ 「池子」: 「default.rgw.buckets.data」, 「OID」:「17925483-8ff6-4aaf- 9db2-1eafeccd0454.24248.3__shadow_certs/boot2docker.iso.2〜UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp.1_1" , 「關鍵」: 「」, 「實例」: 「」 } ....

如果您發現該時間

2017-10-27 13:51:58.0.493358s

運行

radosgw管理員GC過程

它只會清除/刪除是老年人則時間費爾德

例如,我可以運行「radosgw管理員零件時

51:58.0.493358s‘

但你GC進程2017年10月27日13」一遍又一遍,但這些文件不會直到出爐後刪除’也是正確的

反興奮劑組織清除default.rgw.buckets.data --yes-I-真的,真的均值,它

作品以及

0

我用頭孢開始,有同樣問題的任何一個建議。

  1. 試運行垃圾收集

名單究竟會被刪除

radosgw-admin gc list --include-all 

然後運行它

radosgw-admin gc process 
  • 如果沒有工作(像我的大部分數據)
  • 找到與您的數據桶:!

    ceph df 
    

    通常你的S3數據在默認的池出現default.rgw.buckets.data

    清除它從每一個對象/ \你將失去所有的數據/ \

    rados purge default.rgw.buckets.data --yes-i-really-really-mean-it 
    

    我不知道爲什麼ceph現在不清除這些數據本身(仍然在學習......)。

    +0

    感謝淨化事情傷心地工作着在現場環境中這樣做。 但感謝的命令和理解我運行了一些測試,讓我的頭周圍 – nig007