您好,登錄后才能下訂單哦!
這篇文章主要介紹了Openstack如何對接ceph存儲,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
前期工作:
已經部署openstack 集群, 當時操作版本icehouse版本
已經部署ceph的集群, 當時操作的版本ceph-0.94.10,其它版本也可以
從ceph集群其中和個節點獲取相關配置文件,
openstack的存儲服務操作ceph時需要用到:
ceph.client.admin.keyring
ceph.conf
對集群進行互信操作
在openstack各個節點安裝ceph相關的依賴包:
yum -y install ceph
將剛才獲取到的兩個配置文件
ceph.client.admin.keyring
ceph.conf
分配傳到各個節點的/etc/ceph目錄
創建openstack會用到的存儲池, 'volumes', 'images', 'vms'
(只需在其中一臺節點執行以下命令即可)
ceph osd pool create images 1024
ceph osd pool create vms 1024
ceph osd pool create volumes 1024
設置ceph客戶端認證,在其中一個openstack節點執行以下命令:
ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rwx pool=images'
ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'
在glance服務節點,執行以下操作:
ceph auth get-or-create client.glance
將輸出結果存入/etc/ceph/ceph.client.glance.keyring
在cinder服務節點,執行以下操作:
ceph auth get-or-create client.cinder
將輸出結果存入/etc/ceph/ceph.client.cinder.keyring
uuidgen
生成uuid
或者獲取ceph集群的uuid
在所有節點執行以下操作:
cat > secret.xml <<EOF
<secret ephemeral='no' private='no'>
<uuid>281134a0-0c76-47ba-9166-b0f0b73ea493</uuid>
<usage type='ceph'>
<name>client.cinder secret</name>
</usage>
</secret>
EOF
ceph auth get-or-create client.cinder #此命令輸出的結果會在virsh 設置時用到--base64參數里
virsh secret-define --file secret.xml
virsh secret-set-value --secret 281134a0-0c76-47ba-9166-b0f0b73ea493 --base64 AQD0notZXjToMhAAlBARtxvamLcgtqEssAD6Ow==
在glance服務節點設置api配置:
openstack-config --set /etc/glance/glance-api.conf DEFAULT default_store rbd
openstack-config --set /etc/glance/glance-api.conf DEFAULT rbd_store_user glance
openstack-config --set /etc/glance/glance-api.conf DEFAULT rbd_store_pool images.....
在cinder服務節點設置配置:
openstack-config --set /etc/cinder/cinder.conf DEFAULT volume_driver cinder.volume.drivers.rbd.RBDDriver
openstack-config --set /etc/cinder/cinder.conf DEFAULT rbd_pool volumes
openstack-config --set /etc/cinder/cinder.conf DEFAULT rbd_ceph_conf /etc/ceph/ceph.conf.....
在nova服務節點設置配置:
openstack-config --set /etc/nova/nova.conf DEFAULT libvirt_images_type rbd
openstack-config --set /etc/nova/nova.conf DEFAULT libvirt_images_rbd_pool vms
openstack-config --set /etc/nova/nova.conf DEFAULT libvirt_images_rbd_ceph_conf /etc/ceph/ceph.conf
openstack-config --set /etc/nova/nova.conf DEFAULT rbd_user cinder.......
重啟openstack服務
至少對接完成
驗證是否對接成功
ceph osd lspools 可查看已經創建的池
0 rbd,1 volumes,2 images,3 vms,4 backups
在openstack創建一個云硬盤
rbd ls volumes 可查看已經創建的結果
volume-15d2ce4d-50b7-4b47-ac73-ec0543637f87
或者上傳一個鏡像
rbd ls images
ac5c334f-fbc2-4c56-bf48-47912693b692
感謝你能夠認真閱讀完這篇文章,希望小編分享的“Openstack如何對接ceph存儲”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。