清理Ceph
使用 ceph-deploy purge(不保留Ceph packages) 或者 ceph-deploy purgedata(保留Ceph packages)
命令參考如下:
ceph-deploy purge {hostname} [{hostname} …]
ceph-deploy purgedata {hostname} [{hostname} …]
第一步
這里我們完全clean ceph,恢復主機原來的模樣
由于我這里部署了三臺Ceph,所以命令執(zhí)行如下:
[root@ceph-1 cluster]# ceph-deploy purge ceph-1 ceph-2 ceph-3
等待一會吧,時間還是稍微有點長的馋袜。孵户。望薄。
執(zhí)行結(jié)束后可以看到"Cleaning up everything"的字樣兆解,然而并非像官方or這里顯示的那樣,其實還有數(shù)據(jù)沒有刪除榨为,比如:
[root@ceph-1 cluster]# ll /var/lib/ceph/
total 28
drwxr-x--- 2 ceph ceph 4096 Jun 21 17:09 bootstrap-mds
drwxr-x--- 2 ceph ceph 4096 Jun 21 17:08 bootstrap-mgr
drwxr-x--- 2 ceph ceph 4096 Jun 21 17:07 bootstrap-osd
drwxr-x--- 3 ceph ceph 4096 Jun 21 17:09 mds
drwxr-x--- 3 ceph ceph 4096 Jun 21 17:08 mgr
drwxr-x--- 3 ceph ceph 4096 Jun 21 17:06 mon
drwxr-x--- 4 ceph ceph 4096 Jun 21 17:07 osd
第二步
[root@ceph-1 cluster]# umount /var/lib/ceph/osd/*
[root@ceph-1 cluster]# rm -rf /var/lib/ceph
[root@ceph-1 cluster]# rm -rf /etc/ceph
[root@ceph-1 cluster]# rm -rf /var/run/ceph/
到此,你以為你結(jié)束了煌茴?其實還沒有柠逞。。景馁。why板壮?lsblk一下
[root@ceph-1 cluster]# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 50G 0 disk
└─ceph--6e7d98d3--22a0--4cc7--a9e5--b4a8a97b9f0f-osd--block--49dd9ad5--81f1--4a1e--8535--3c9477c90140
252:0 0 50G 0 lvm
vdc 253:32 0 50G 0 disk
└─ceph--f44f6b2c--16f8--4700--af87--52d5d950cb31-osd--block--07fbc656--5a52--4e27--bc05--ef3b09ae3533
252:1 0 50G 0 lvm
vdd 253:48 0 50G 0 disk
├─vdd1 253:49 0 10G 0 part
├─vdd2 253:50 0 10G 0 part
├─vdd3 253:51 0 10G 0 part
└─vdd4 253:52 0 10G 0 part
還有磁盤要清理。合住。于是繼續(xù)绰精。。
第三步
[root@ceph-1 cluster]# vgscan
Reading all physical volumes. This may take a while...
Found volume group "ceph-6e7d98d3-22a0-4cc7-a9e5-b4a8a97b9f0f" using metadata type lvm2
Found volume group "ceph-f44f6b2c-16f8-4700-af87-52d5d950cb31" using metadata type lvm2
[root@ceph-1 cluster]# vgremove ceph-6e7d98d3-22a0-4cc7-a9e5-b4a8a97b9f0f -y
Logical volume "osd-block-49dd9ad5-81f1-4a1e-8535-3c9477c90140" successfully removed
Volume group "ceph-6e7d98d3-22a0-4cc7-a9e5-b4a8a97b9f0f" successfully removed
[root@ceph-1 cluster]# vgremove ceph-f44f6b2c-16f8-4700-af87-52d5d950cb31 -y
Logical volume "osd-block-07fbc656-5a52-4e27-bc05-ef3b09ae3533" successfully removed
Volume group "ceph-f44f6b2c-16f8-4700-af87-52d5d950cb31" successfully removed
到此終于結(jié)束了透葛。笨使。。當然了還可以沒結(jié)束僚害,去清理一些其他的軟件包
第四步(沒必要)
清理ntp, ceph-deploy 等軟件包
[root@ceph-2 ~]# yum remove xxx -y
vdd磁盤清理硫椰,用fdisk即可
值得注意的地方
- 如果不走第三步,當你在相同主機再次部署ceph的時候會無法清空磁盤并創(chuàng)建osd
- 如果不走第二步,當你在相同主機再次部署ceph的時候會有意想不到的問題靶草,比如osd tree莫名多了幾個down的osd蹄胰,cephfs的pool 的pgs莫名down了等等。奕翔。裕寨。(當時我就是嘗試了各種,欲哭無淚)
- 如果安裝ceph時本地新建了cluster文件夾派继,里面放有各種配置文件宾袜,建議這個文件夾也一并刪除掉
- 所以清理就一定要清干凈