您好,登錄后才能下訂單哦!
小編給大家分享一下Ceph集群搬遷后如何恢復,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!
由于集群IP發生了修改,所以/etc/hosts中的配置文件中集群的IP地址信息也要更新。集群中的每臺主機都應該更新。
1*0.57.148.*6 ceph0 1*0.57.148.*7 ceph2 1*0.57.148.*8 ceph3 1*0.57.148.*9 ceph4 1*0.57.148.*0 ceph5
整個集群的恢復的首要條件是恢復MON, 也是解決IP改變的需要,OSD本身并沒有跟IP相關,這個問題的解決可以查看我以前的博客 Ceph由于更換IP地址導致MON異常
此處需要注意的是要更新ceph.conf文件中mon_host信息以及public network / cluster network的網段信息。
mon_initial_members = ceph0,ceph2,ceph3 mon_host = your mon ip addrs
由于我的硬盤并沒有自動掛載的功能,所以此處有一個體力活,就是如何將硬盤掛載到對應的掛載目錄上。
我在起初掛載的時候按照順序依次掛載,即
/dev/sdb1 --> /var/lib/ceph/osd/ceph-0 /dev/sdc1 --> /var/lib/ceph/osd/ceph-1 /dev/sdd1 --> /var/lib/ceph/osd/ceph-2 /dev/sde1 --> /var/lib/ceph/osd/ceph-3 ......
盤符和掛載點都是依次遞增的,所以在恢復的時候也是依次掛載即可。如果不確定,可以采用如下辦法:先將硬盤進行掛載,檢查whoami中的編號,即可知道該硬盤對應哪個掛載點。
掛載好后用/etc/init.d/ceph start命令啟動各臺主機上的osd進程。
IP地址的修改對RGW的影響很小,只需要修改下配置文件中的host選項,改為實際IP地址即可。
[client.rgw.ceph5] host = your ip addr rgw frontends=civetweb port=80
修改后直接啟動rgw進程即可。
如此即可恢復整個集群。
在恢復的過程中發現集群的狀態特別不穩定,總是有不同的osd節點被標記為down.也沒有找到原因。后來考慮到是不是防火墻中的策略沒有將新IP添加進去的原因。檢查后果然如此。修改策略后一會狀態即變為active + clean. 至此集群恢復成功。
移除mon的方法:
monmap e1: 5 mons at {a=101.71.4.11:6789/0,b=101.71.4.12:6789/0,c=101.71.4.13:6789/0,d=101.71.4.14:6789/0,e=101.71.4.15:6789/0} [root@aaa ~]# ceph mon remove d removed mon.d at 101.71.4.14:6789/0, there are now 4 monitors [root@aaa ~]# ceph mon remove e removed mon.e at 101.71.4.15:6789/0, there are now 3 monitors
看完了這篇文章,相信你對“Ceph集群搬遷后如何恢復”有了一定的了解,如果想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。