91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用Ceph作為OpenStack的后端存儲

發布時間:2021-08-25 09:56:13 來源:億速云 閱讀:287 作者:chen 欄目:云計算

這篇文章主要介紹“如何使用Ceph作為OpenStack的后端存儲”,在日常操作中,相信很多人在如何使用Ceph作為OpenStack的后端存儲問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何使用Ceph作為OpenStack的后端存儲”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

概述

        libvirt配置了librbd的QEMU接口,通過它可以在OpenStack中使用Ceph塊存儲。Ceph塊存儲是集群對象,這意味著它比獨立的服務器有更好的性能。
        在OpenStack中使用Ceph塊設備,必須首先安裝QEMU,libvirt和OpenStack,下圖描述了 OpenStack和Ceph技術層次結構:

如何使用Ceph作為OpenStack的后端存儲
 

http://my.oschina.net/JerryBaby/blog/376580 我翻譯的官方文檔,僅供參考 ^ ^。

系統規劃

OpenStack集群:
         控制節點:openstack(controller)192.168.1.131
         計算節點:compute                      192.168.1.132
         存儲節點:storage                        192.168.1.133

Ceph集群:
       monitor、mds、osd0 節點:openstack(controller)192.168.1.131
       osd1:compute       192.168.1.132
       osd2:storage         192.168.1.133

系統架構:

如何使用Ceph作為OpenStack的后端存儲
 

配置過程

Important:由于這里將兩套集群服務部署在了同一組節點上,所以配置過程中省略了一些關于Ceph集群的配置。

創建存儲池

# ceph osd pool create volumes 128
# ceph osd pool create images 128
# ceph osd pool create vms 128

設置Ceph客戶端認證

在OpenStack節點執行如下命令:

# ceph auth get-or-create client.cinder mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=volumes, allow rwx pool=vms, allow rx pool=images'
# ceph auth get-or-create client.glance mon 'allow r' osd 'allow class-read object_prefix rbd_children, allow rwx pool=images'

為client.cinder,client.glance添加密鑰文件來訪問節點并改變屬主:

# ceph auth get-or-create client.glance | ssh openstack sudo tee /etc/ceph/ceph.client.glance.keyring
# ssh openstack sudo chown glance:glance /etc/ceph/ceph.client.glance.keyring
# ceph auth get-or-create client.glance | ssh compute sudo tee /etc/ceph/ceph.client.glance.keyring
# ssh compute sudo chown nova:nova /etc/ceph/ceph.client.glance.keyring
# ceph auth get-or-create client.cinder | ssh compute sudo tee /etc/ceph/ceph.client.cinder.keyring
# ssh compute sudo chown nova:nova /etc/ceph/ceph.client.cinder.keyring
# ceph auth get-or-create client.cinder | ssh storage sudo tee /etc/ceph/ceph.client.cinde.keyring
# ssh storage sudo chown cinder:cinder /etc/ceph/ceph.client.cinder.keyring

運行nova-compute的節點nova-compute進程需要密鑰文件。它們也存儲client.cinder用戶的密鑰在libvirt。libvirt進程在Cinder中綁定塊設備時需要用到它來訪問集群。
在nova-compute節點創建一個臨時的密鑰副本:

# uuidgen
457eb676-33da-42ec-9a8c-9293d545c337

# cat > secret.xml <<EOF
<secret ephemeral='no' private='no'>
  <uuid>457eb676-33da-42ec-9a8c-9293d545c337</uuid>
  <usage type='ceph'>
    <name>client.cinder secret</name>
  </usage>
</secret>
EOF
# sudo virsh secret-define --file secret.xml 
# sudo virsh secret-set-value --secret 457eb676-33da-42ec-9a8c-9293d545c337 --base64 $(cat client.cinder.key) && rm client.cinder.key secret.xml

配置Glance

編輯 /etc/glance/glance-api.conf并添加如下內容:

[DEFAULT]
default_store = rbd
...
[glance_store]
stores = rbd
rbd_store_pool = images
rbd_store_user = glance
rbd_store_ceph_conf = /etc/ceph/ceph.conf
rbd_store_chunk_size = 8

如果要啟動鏡像的寫時復制功能,添加下面的 [DEFAULT] 部分:

show_image_direct_url = True

配置Cinder

在openstack節點和storage節點編輯 /etc/cinder/cinder.conf配置文件并添加如下內容:

volume_driver = cinder.volume.drivers.rbd.RBDDriver
rbd_pool = volumes
rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_flatten_volume_from_snapshot = false
rbd_max_clone_depth = 5
rbd_store_chunk_size = 4
rados_connect_timeout = -1
glance_api_version = 2

如果使用cephx驗證,需要配置user和uuid:

rbd_user = cinder
rbd_secret_uuid = 457eb676-33da-42ec-9a8c-9293d545c337

配置Nova

為了掛載Cinder設備(普通設備或可引導卷),必須指明使用的用戶及UUID。libvirt將使用期在Ceph集群中進行連接和驗證:

rbd_user = cinder
rbd_secret_uuid = 457eb676-33da-42ec-9a8c-9293d545c337

編輯 /etc/nova/nova.conf并添加如下內容:

[libvirt]
images_type = rbd
images_rbd_pool = vms
images_rbd_ceph_conf = /etc/ceph/ceph.conf
rbd_user = cinder
rbd_secret_uuid = 457eb676-33da-42ec-9a8c-9293d545c337
libvirt_live_migration_flag="VIR_MIGRATE_UNDEFINE_SOURCE,VIR_MIGRATE_PEER2PEER,VIR_MIGRATE_LIVE,VIR_MIGRATE_PERSIST_DEST"

禁用文件注入。當啟動一個實例的時候,nova通常會嘗試打開rootfs。這時,nova注入一些數據,如密碼、ssh 密鑰,配置文件等到文件系統中。然而,這最好依靠元數據服務和cloud-init來完成。

在每個計算節點,編輯  /etc/nova/nova.conf 在  [libvirt]  標簽添加:

libvirt_inject_password = false
libvirt_inject_key = false
libvirt_inject_partition = -2

重啟服務

# sudo glance-control api restart
# sudo service nova-compute restart
# sudo service cinder-volume restart
# sudo service cinder-backup restar

從塊設備引導

Ceph后端存儲狀況:

如何使用Ceph作為OpenStack的后端存儲  

Ceph不支持從qcow2格式的鏡像引導,所以創建一個raw格式的鏡像:

如何使用Ceph作為OpenStack的后端存儲  

創建一個可引導卷:

如何使用Ceph作為OpenStack的后端存儲

如何使用Ceph作為OpenStack的后端存儲
 

從可引導卷創建一個實例:

如何使用Ceph作為OpenStack的后端存儲  

查看Ceph存儲狀況:

如何使用Ceph作為OpenStack的后端存儲

到此,關于“如何使用Ceph作為OpenStack的后端存儲”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大连市| 理塘县| 博罗县| 丰宁| 苗栗县| 馆陶县| 青河县| 阳山县| 茶陵县| 新巴尔虎右旗| 怀安县| 玉林市| 昆山市| 香港| 桑日县| 宁国市| 独山县| 五大连池市| 通化市| 商丘市| 宜章县| 隆回县| 伊吾县| 绥德县| 巴楚县| 汽车| 巴里| 上饶市| 虹口区| 尚义县| 景宁| 江达县| 竹溪县| 姜堰市| 河津市| 兴海县| 什邡市| 盘山县| 中宁县| 英山县| 留坝县|