使用內(nèi)核驅(qū)動(dòng)程序掛載CephFs
1、在ceph-client1客戶(hù)端節(jié)點(diǎn)上創(chuàng)建掛載點(diǎn)目錄
mkdir /mnt/mycephfs
2号杏、查看管理員秘鑰
因?yàn)橐獟燧d啟用了 cephx 認(rèn)證的 Ceph 文件系統(tǒng)婴氮,所以必須指定用戶(hù)名、密鑰盾致。
cd /etc/ceph/
cat ceph.client.admin.keyring
[client.admin]
key = AQDPdgZcQXRtGBAAfAY5WZwZWdAKoTLqQwwDoA== #這個(gè)就是管理員的秘鑰主经,等會(huì)掛載的時(shí)候用得上
caps mds = "allow *"
caps mon = "allow *"
caps osd = "allow *"
3、使用linux的mount命令掛載cephfs
mount -t ceph 10.33.1.55:6789:/ /mnt/cephfs -o name=admin,secret=AQDPdgZcQXRtGBAAfAY5WZwZWdAKoTLqQwwDoA==
4庭惜、用df -h命令查看掛載情況
df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 471M 0 471M 0% /dev
tmpfs 483M 0 483M 0% /dev/shm
tmpfs 483M 6.6M 477M 2% /run
tmpfs 483M 0 483M 0% /sys/fs/cgroup
/dev/mapper/cl-root 8.0G 1.5G 6.5G 19% /
/dev/sda1 1014M 186M 829M 19% /boot
/dev/rbd0 10G 33M 10G 1% /mnt/ceph-vol1
tmpfs 97M 0 97M 0% /run/user/0
192.168.89.103:6789:/ 45G 436M 45G 1% /mnt/mycephfs #這個(gè)就是掛載好的cephfs
5旨怠、卸載cephfs
umount /mnt/mycephfs
df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 471M 0 471M 0% /dev
tmpfs 483M 0 483M 0% /dev/shm
tmpfs 483M 6.6M 477M 2% /run
tmpfs 483M 0 483M 0% /sys/fs/cgroup
/dev/mapper/cl-root 8.0G 1.5G 6.5G 19% /
/dev/sda1 1014M 186M 829M 19% /boot
/dev/rbd0 10G 33M 10G 1% /mnt/ceph-vol1
tmpfs 97M 0 97M 0% /run/user/0
6、以更安全的方式掛載
用法會(huì)把密碼遺留在 Bash 歷史里蜈块,更安全的方法是從文件讀密碼
將admin的秘鑰保存到文件里
echo "AQBOp0xaDyeNGBAAqbEktnUq5GFVF5arsWbesA==" > /etc/ceph/admin.secret
mount -t ceph 192.168.89.103:6789:/ /mnt/mycephfs -o name=admin,secretfile=/etc/ceph/admin.secret
df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 471M 0 471M 0% /dev
tmpfs 483M 0 483M 0% /dev/shm
tmpfs 483M 6.6M 477M 2% /run
tmpfs 483M 0 483M 0% /sys/fs/cgroup
/dev/mapper/cl-root 8.0G 1.5G 6.5G 19% /
/dev/sda1 1014M 186M 829M 19% /boot
/dev/rbd0 10G 33M 10G 1% /mnt/ceph-vol1
tmpfs 97M 0 97M 0% /run/user/0
192.168.89.103:6789:/ 45G 436M 45G 1% /mnt/mycephfs #這個(gè)就是掛載好的cephfs
通過(guò)FUSE方式掛載CephFS
如果內(nèi)核版本低于2.6.34鉴腻,那么可以使用ceph的FUSE客戶(hù)端來(lái)進(jìn)行掛載ceph文件系統(tǒng)
1、在客戶(hù)端上安裝fuse
apt install ceph-fuse
2百揭、創(chuàng)建掛載點(diǎn)目錄
mkdir /mnt/fuse_cephfs/
3爽哎、開(kāi)始掛載
ceph-fuse -m 10.33.1.55:6789 /mnt/fuse_cephfs/
2018-12-17 14:43:31.374161 7f7267886f00 -1 init, newargv = 0x5581daf26fc0 newargc=11ceph-fuse[23983]: starting ceph client
ceph-fuse[23983]: starting fuse
4、查看掛載后的信息
df -h
Filesystem Size Used Avail Use% Mounted on
udev 981M 0 981M 0% /dev
tmpfs 201M 16M 185M 8% /run
/dev/mapper/ubuntu--vg-root 15G 5.2G 8.3G 39% /
tmpfs 1001M 0 1001M 0% /dev/shm
tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs 1001M 0 1001M 0% /sys/fs/cgroup
/dev/sda1 472M 58M 391M 13% /boot
tmpfs 201M 0 201M 0% /run/user/0
/dev/sdb1 11G 1.6G 9.5G 15% /var/lib/ceph/osd/ceph-0
ceph-fuse 33G 4.7G 29G 15% /mnt/fuse_cephfs
5器一、我把之前通過(guò)kernel驅(qū)動(dòng)程序的掛載方式中的掛載點(diǎn)目錄更改為了kernel_cephfs
并再次執(zhí)行了掛載后
df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 471M 0 471M 0% /dev
tmpfs 483M 0 483M 0% /dev/shm
tmpfs 483M 6.6M 477M 2% /run
tmpfs 483M 0 483M 0% /sys/fs/cgroup
/dev/mapper/cl-root 8.0G 1.5G 6.5G 19% /
/dev/sda1 1014M 186M 829M 19% /boot
tmpfs 97M 0 97M 0% /run/user/0
ceph-fuse 45G 444M 45G 1% /mnt/fuse_cephfs #這是fuse客戶(hù)端方式掛載
192.168.89.103:6789:/ 45G 444M 45G 1% /mnt/kernel_cephfs #這是kernel的方式掛載
事實(shí)證明:這兩者可以同時(shí)存在课锌,我這里是在同一臺(tái)機(jī)器上,當(dāng)然更可以在不同的機(jī)器上掛載同一個(gè)cephfs
并且祈秕,我在/mnt/fuse_cephfs目錄下創(chuàng)建了file_fuse_123.txt渺贤,然后再到/mnt/kernel_cephfs去查看,也出現(xiàn)了file_fuse_123.txt
此處證明请毛,cephfs是分布式的且共享型的網(wǎng)絡(luò)文件系統(tǒng).
注意志鞍,這兩種掛載方式雖然可以在一臺(tái)機(jī)器上同時(shí)存在,但是在生產(chǎn)環(huán)境中這么做是沒(méi)有太大意義的方仿。我這里僅僅只是為了測(cè)試而已固棚。
6统翩、開(kāi)機(jī)自動(dòng)掛載cephfs
如需要開(kāi)機(jī)時(shí)自動(dòng)掛載cephfs,將下面的信息添加到客戶(hù)端的/etc/fstab中
id=admin /mnt/fuse_cephfs fuse.ceph defaults 0 0
7此洲、重啟客戶(hù)端的注意事項(xiàng)
1厂汗、重啟前最好是先umont調(diào)掛載后的文件系統(tǒng)
2、然后再重啟