您好,登錄后才能下訂單哦!
一個Ceph(CephFS)文件系統至少需要兩個RADOS池,一個用于數據,另一個用于元數據,配置這些池時,我們應該考慮以下三點
創建兩個具有默認設置以供文件系統使用的池,并創建好mds,2是pg_number,這里沒指定pgp的值,有關pg和pgp的說明可以參考我之前的文章,Ceph概念介紹及組件介紹
[root@ceph-node1 ~]# ceph osd pool create cephfs_data 2
pool 'cephfs_data' created
[root@ceph-node1 ~]# ceph osd pool create cephfs_metadata 2
pool 'cephfs_metadata' created
[root@ceph-node1 ~]# ceph-deploy mds create ceph-node2
[root@ceph-node1 ~]# ceph mds stat
cephfs-1/1/1 up {0=ceph-node2=up:active}
創建完池后,就可以來創建cephFS了
[root@ceph-node1 ~]# ceph fs new cephfs cephfsmetadata cephfsdata
new fs with metadata pool 41 and data pool 40
[root@ceph-node1 ~]# ceph fs ls
name: cephfs, metadata pool: cephfsmetadata, data pools: [cephfsdata ]
創建掛載目錄
[root@ceph-client /]# mkdir -p /mnt/cephfs
在ceph-node2上,創建用戶client.cephfs
[root@ceph-node2 ~]#ceph auth get-or-create client.cephfs mon ‘allow r’ mds ‘allow r, allow rw path=/’ osd ‘allow rw pool=cephfs_data’
在ceph-node2上,獲取client.cephfs用戶的key
[root@ceph-node2 ~]#ceph auth get-key client.cephfs
AQCL2d1dj4OgFRAAFeloClm23YTBsPn1qQnfTA==
將上一條命令獲取到的key保存到ceph客戶端中
[root@ceph-client ~]#echo AQCL2d1dj4OgFRAAFeloClm23YTBsPn1qQnfTA== > /etc/ceph/cephfskey
掛載此文件系統
[root@ceph-client ~]# mount -t ceph ceph-node2:6789:/ /mnt/cephfs -o name=cephfs,secretfile= /etc/ceph/cephfskey
寫入fstab中
[root@ceph-client ~] ech ceph-node2:6789:/ /mnt/cephfs ceph name=cephfs,secretfile=/etc/ceph/cephfskey,_netdev,noatime 0 0o ceph-node2:6789:/ /mnt/cephfs ceph name=cephfs,secretfile=/etc/ceph/cephfskey,_netdev,noatime 0 0 > /etc/fstab
查看掛載情況
[root@ceph-client ~]# df -Th | grep cephfs
172.16.4.79:6789:/ ceph 46G 0 46G 0% /mnt/cephfs
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。