91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在Docker里運行Ceph

發布時間:2021-08-04 11:10:56 來源:億速云 閱讀:415 作者:chen 欄目:云計算

本篇內容介紹了“怎么在Docker里運行Ceph”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

Ceph是一個完全開源的分布式存儲方案、網絡塊設備以及文件系統,具有高穩定性、高性能、高擴展性等特點,可應對terabyte到exabyte級別的數據量。

通過使用創新性的調度算法(CRUSH)、主動存儲節點、以及peer-to-peer的gossip協議,Ceph規避了傳統集中控制和lookup table中的擴展性和可靠性問題。

Ceph目前在整個開源社區中極受推崇,已被廣泛應用與虛擬化平臺(Proxmox)、云計算平臺(OpenStack、 CloudStack、OpenNebula)、容器技術(Docker)、以及大數據分析系統(Hadoop、作為HDFS的meted服務器)中。

我嘗試將Ceph運行在Docker中已經快兩年了。直到今天我依然在做這些工作。最近我更是在 Docker 中部署 Ceph方面投入了不小的精力。

在展開技術細節前,我要特別感謝Sean C McCord對此工作的大力支持,當年的開源ceph-docker項目也的確是基于Sean的早期工作。

現在讓我們具體看看如何將Ceph運行在Docker里!

原理

將Ceph運行在Docker中是一個比較有爭議的話題,不少人質疑這樣操作的意義。雖然將檢測模塊、metadata服務器、以及RADOS gateway容器化都沒有太大問題,但對于OSD(object storage daemon),事情會變得很棘手。Ceph的OSD專門針對物理機器進行優化,與底層硬件有很多關聯。如果物理硬盤失效,OSD也無法運作,這給容器化的場景帶來了問題。

坦白地講,在過去某個時刻我也在想:

“我不知道自己為什么做這個,我只知道有人需要這個功能(當然,他們可能也不知道為什么想要)。我只是覺得想進行技術嘗試,那就試試看!”

當然上述想法聽起來并不樂觀,但這確實是我當時真實的想法。我的觀點隨后有了一些變化,我來解釋下為什么是值得的。希望這個解釋也能改變你的看法(我的解釋不僅僅是“Docker很酷,所以我們要把所有東西都跑在Docker里!”)。

不少開發者已經花了很多時間將他們的軟件容器化。在這個過程中,他們也用過多種不同的工具來構建和管理他們的環境。如果我看到有人用 Kubernetes 來作為管理工具也一點都不會吃驚。

有的人就喜歡將最新潮的技術應用到生產當中,否則他們會覺得工作很無聊。所以當他們看到自己最喜歡的開源存儲方案也正在被容器化時,他們會因為這個順應了“一切容器化”的方式而感到高興。

與傳統的 yum 或 apt-get不同,容器使得軟件的升級和回卷變得容易:我們可以通過 docker stop或者docker run來發布新的daemons版本。我們甚至可以在一臺物理機器上運行多個相互隔離的集群。這些都為開發過程提供了極大的便利。

項目

如上所述,所有的工作都基于Sean C McCord的早期貢獻,我們后來都在圍繞他的工作做完善。現在如果你用ceph-docker,你可以將每個單一的Ceph daemon運行在Ubuntu或CentOS上。

我們在Docker Hub里有很多的鏡像,我們使用Ceph的命名空間,因此我們的鏡像前綴都是ceph/<daemon>。我們使用了自動構建,因此每次我們整合一個新的補丁就會觸發新的構建,從而生成一個新的容器鏡像。

由于我們現在在從事代碼重構,你會看到有很多的鏡像版本。一直以來我們對每一個daemon構建一個單獨的鏡像(我們整合這些補丁的時候都會這樣做)。所以監測、OSD、mds和radosgw各自都有獨立的鏡像。這個并不是最理想的方案,因此我們在嘗試將所有組件都整合到一個叫做 daemon的鏡像中。

這個鏡像包含了所有的模塊,你可以在運行docker run的時候通過命令行選擇性地激活不同模塊。如果你想試用我們的鏡像,我們推薦使用ceph/daemon鏡像。下面我就舉例說明如何運行。

容器化Ceph

監測

由于監測模塊不能在NAT過的網絡中進行通信,我們必須使用 --net=host來將主機的網絡層開放給容器:

$ sudo docker run -d --net=host \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-e MON_IP=192.168.0.20 \

-e CEPH_PUBLIC_NETWORK=192.168.0.0/24 \

ceph/daemon mon

你可以配置如下選項:

MON_IP是運行Docker的主機IP

MON_NAME是你監測模塊的名稱(默認為$(hostname))

CEPH_PUBLIC_NETWORK是運行Docker的主機的CIDR。它和MON_IP必須是同一個網絡。

CEPH_CLUSTER_NETWORK是運行Docker的主機的備用網口的CIDR,為OSD的備份流量使用。

Object Storage Daemon

我們現在能實現允許每一個OSD進程運行在一個獨立的容器里。按照微服務的理念,一個容器里不應該運行超過一個服務。而在我們這里,在同一個容器里運行多個OSD進程,打破了這一理念,當然這也會給系統的配置和維護帶來額外的復雜度。

在這樣的配置下,我們必須使用--privileged=true來使得容器中的進程可以訪問/dev等其他內核功能。然后,我們在開放OSD的目錄的基礎上也支持其他配置,開放OSD的目錄可以讓operators來對設備做合適的準備工作。

這樣我們就可以簡單地開放OSD目錄,配置OSD(ceph-osd mkfs)的工作就會通過Entry Point來完成。我下面介紹的配置方法是最簡單的,因為它只需要你指定一個block device,剩下的事情都會由Entry Point完成。

如果不想用--privileged=true可以采用我的第二個例子。

$ sudo docker run -d --net=host \

--privileged=true \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-v /dev/:/dev/ \

-e OSD_DEVICE=/dev/vdd \

ceph-daemon osd_ceph_disk

如果你不想使用--privileged=true,你也可以使用你喜歡的配置管理工具來手動配置OSD。

下面這個例子我假定你已經實現分區并配置好文件系統。運行下面的命令來生成你的OSD:

$ sudo docker exec <mon-container-id> ceph osd create.

然后運行你的容器:

docker run -v /osds/1:/var/lib/ceph/osd/ceph-1 -v /osds/2:/var/lib/ceph/osd/ceph-2

$ sudo docker run -d --net=host \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-v /osds/1:/var/lib/ceph/osd/ceph-1 \

ceph-daemon osd_disk_directory

可配置的選項如下:

OSD_DEVICE i是OSD設備,例如:/dev/sdb

OSD_JOURNAL使用來儲存OSD journal的設備,例如:/dev/sdz

HOSTNAME是運行OSD的主機(默認為$(hostname)

OSD_FORCE_ZAP會強制將制定的設備內容zapping(默認為 0,設為1去開啟)

OSD_JOURNAL_SIZE是OSD journal的大小(默認為 100)

Metadata 服務器

這個組件的設置較為直觀。唯一需要注意的地方是在Docker中我們可以訪問Ceph管理員密鑰。這個密鑰會用來生成CephFS pools和文件系統。

如果你運行0.87以前的Ceph版本,你就不需要做此配置,然而我們最好運行最新的版本!

$ sudo docker run -d --net=host \

-v /var/lib/ceph/:/var/lib/ceph \

-v /etc/ceph:/etc/ceph \

-e CEPHFS_CREATE=1 \

ceph-daemon mds

可配置的選項如下:

MDS_NAME是Metadata服務器的名字(默認為mds-$(hostname))。

CEPHFS_CREATE會為Metadata服務器生成文件系統(默認為0,設為1 去開啟)。

CEPHFS_NAME是Metadata文件系統的名字(默認為cephfs)。

CEPHFS_DATA_POOL是Metadata服務器data pool的名字(默認為cephfs_data)。

CEPHFS_DATA_POOL_PG是data pool的placement groups的數量 (默認為8)。

CEPHFS_DATA_POOL是Metadata服務器metadata pool的名字(默認為cephfs_metadata)。

CEPHFS_METADATA_POOL_PG是metadata pool的placement groups的數量(默認為 8)。

RADOS gateway

我們部署RADOS gateway時默認開啟civetweb。當然,我們也可以通過指定地址和端口來使用不同的CGI前端:

$ sudo docker run -d --net=host \

-v /var/lib/ceph/:/var/lib/ceph \

-v /etc/ceph:/etc/ceph \

ceph-daemon rgw

可配置的選項如下:

RGW_REMOTE_CGI指定是否使用嵌入的web服務器(默認為0,設為1去關閉)。

RGW_REMOTE_CGI_HOST指定運行CGI進程的遠程主機。

RGW_REMOTE_CGI_PORT是運行CGI進行的遠程主機端口。

RGW_CIVETWEB_PORT是civetweb的監聽端口(默認為80)。

RGW_NAME是RADOS gateway實例的名字(默認為$(hostname))。

后續工作

后端配置存儲

在默認配置下,ceph.conf和所有的Ceph密鑰都會在監測模塊啟動階段生成。這個過程假定了你必須在將集群擴展到多節點的時候去把這些配置傳送到所有節點上。這個操作并不靈活,我們希望去改善它。我馬上要提出的一個方案就是利用Ansible來生成這些配置文件和密碼,并將他們安裝到所有機器上。

另一種方法是將所有的配置信息存儲到不同的后端服務器上,例如etcd或consul。

部署管理

最直觀的方案是使用現成的ceph-ansible,雖然我還需要做一些變動,但主體工作已經完成。另一種方案是使用Kubernetes,他們的預覽版本已經發布。

支持Rocket等其他容器技術

也不需要做什么,因為你可以直接將你的Docker鏡像運送到Rocket里,然后運行。

“怎么在Docker里運行Ceph”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

宽甸| 湖州市| 天柱县| 玉山县| 沂源县| 沭阳县| 克什克腾旗| 南江县| 邳州市| 临潭县| 苍南县| 玉门市| 通河县| 吴川市| 图片| 毕节市| 陈巴尔虎旗| 雅安市| 故城县| 云霄县| 临洮县| 江城| 华池县| 油尖旺区| 新河县| 灵寿县| 河西区| 嘉义县| 永寿县| 黄陵县| 湖南省| 全椒县| 温州市| 韩城市| 济阳县| 宽城| 红河县| 南昌县| 新河县| 汕头市| 邯郸市|