91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

LVS:Linux虛擬服務器ceph

發布時間:2020-06-12 22:21:51 來源:網絡 閱讀:531 作者:兩條小魚 欄目:建站服務器

集群:HPC/LB/HA
LB:nginx / lvs / haproxy / F5
HA:keepalived / RHCS

LVS:Linux虛擬服務器
LVS工作模式:NAT / TUN / DR

存儲:
1、塊存儲,如iSCSI、 FC SAN
2、文件存儲,如NFS,CIFS
3、對象存儲

Ceph:
1、它是一個分布式文件系統,可以提供塊存儲、文件系統存儲和對象存儲。但是文件存儲還不非常成熟,不建議在生產環境中使用。應用的最多的形式是塊存儲。
2、Ceph主要組件

OSD:對象存儲設備,它是ceph中唯一的真正進行數據存儲的組件。通常情況下,一個OSD進程綁定到一塊物理磁盤。
MON:Monitor監視器,跟蹤整個集群的健康狀態。它為每個ceph組件維護一個映射表。MON進程數目是奇數,如3、5、7……
MDS:元數據服務器。為ceph文件系統存儲提供元數據,如果不是文件系統存儲則不需要。
元數據:描述數據的數據。如一本書的出版社、頁數、作者、出版時間等都是元數據。
RADOS:可靠自主的分存式對象存儲。RADOS保證CEPH中的各種數據都是對象形式,操持CEPH的一致性。
RBD:為客戶端提供塊存儲接口
RADOS GW:為客戶端提供對象存儲接口
CEPH FS:為客戶端提供文件系統存儲接口

CEPH環境搭建
1、創建5臺虛擬機
node1.tedu.cn 192.168.4.1
node2.tedu.cn 192.168.4.2
node3.tedu.cn 192.168.4.3
node4.tedu.cn 192.168.4.4
client.tedu.cn 192.168.4.10
2、啟動虛機
[root@room8pc16 kvms_ansi]# for vm in rh7_node{1..5}

do
virsh start $vm
done
3、在物理主機上配置CEPH的YUM源
[root@room8pc16 cluster]# mkdir /var/ftp/ceph/
[root@room8pc16 cluster]# tail -1 /etc/fstab
/ISO/rhcs2.0-rhosp9-20161113-x86_64.iso /var/ftp/ceph iso9660 defaults 0 0
[root@room8pc16 cluster]# mount -a
[root@room8pc16 ~]# vim server.repo
[rhel7.4]
name=rhel7.4
baseurl=ftp://192.168.4.254/rhel7.4
enabled=1
gpgcheck=0
[mon]
name=mon
baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/MON
enabled=1
gpgcheck=0
[osd]
name=osd
baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/OSD
enabled=1
gpgcheck=0
[tools]
name=tools
baseurl=ftp://192.168.4.254/ceph/rhceph-2.0-rhel-7-x86_64/Tools
enabled=1
gpgcheck=0
4、CEPH集群中有很多節點,逐臺管理效率低下,還可能出現錯誤,所以可以找一臺主機當作管理節點,由它統一管理所有主機。我們保用node1作為管理節點。
5、為了使得管理節點能夠方便的管理,先創建免密登陸
(1)通過名稱訪問各臺主機,配置名稱解析
[root@node1 ~]# for i in {1..4}
do
echo -e "192.168.4.$i\tnode$i.tedu.cn\tnode$i" >> /etc/hosts
done
[root@node1 ~]# echo -e "192.168.4.10\tclient.tedu.cn\tclient" >> /etc/hosts
(2)生成密鑰對,非交互模式生成
[root@node1 ~]# ssh-keygen -f /root/.ssh/id_rsa -N ""
(3)第一交ssh到遠程主機會被詢問(yes/no)?。可以先將遠程主機的身份信息,保存到本地
[root@node1 ~]# ssh-keyscan 192.168.4.{1..4} >> /root/.ssh/known_hosts
[root@node1 ~]# ssh-keyscan 192.168.4.10 >> /root/.ssh/known_hosts
[root@node1 ~]# ssh-keyscan node{1..4} >> /root/.ssh/known_hosts
[root@node1 ~]# ssh-keyscan client >> /root/.ssh/known_hosts
(4)拷貝密鑰到遠程主機
[root@node1 ~]# for ip in 192.168.4.{1..4}
do
ssh-copy-id -i $ip
done
[root@node1 ~]# ssh-copy-id -i 192.168.4.10
(5)把hosts文件拷貝到各臺主機
[root@node1 ~]# for host in node{2..4}
do
scp /etc/hosts $host:/etc/
done
[root@node1 ~]# scp /etc/hosts client:/etc
6、將client作為NTP服務器
NTP:網絡時間協議,udp123端口。用于同步時間。
精確時間的確定:原子鐘。全球時間不是一樣的,因為地球是圓的,所以將地球按經度,每隔15度角劃分一個時區,一共24時區。中國采用東八區時間。
(1)在client上安裝軟件包
[root@client ~]# yum install -y chrony
(2)修改配置
[root@client ~]# vim /etc/chrony.conf
allow 192.168.4.0/24
local stratum 10
(3)啟動服務
[root@client ~]# systemctl restart chronyd; systemctl enable chronyd
(4)將其他主機作為客戶端
[root@node1 ~]# vim /etc/chrony.conf
server 192.168.4.10 iburst #其他3行server開頭的刪除
[root@node1 ~]# for ip in 192.168.4.{2..4}
do
scp /etc/chrony.conf $ip:/etc/
done
[root@node1 ~]# for ip in 192.168.4.{1..4}
do
ssh $ip systemctl restart chronyd
done
(5)測試
[root@node1 ~]# date -s "2018-06-20 12:00:00"
[root@node1 ~]# ntpdate 192.168.4.10 跟192.168.4.10同步時鐘
[root@node1 ~]# date 時間已同步
7、在node1~node3上各添加3塊硬盤

8、在node1節點上安裝ceph部署工具
[root@node1 ~]# yum install -y ceph-deploy
9、在node1節點上為ceph創建工作目錄,目錄名自定義
[root@node1 ~]# mkdir ceph_conf
[root@node1 ~]# cd ceph_conf
10、生成ceph安裝所必須的配置文件
[root@node1 ceph_conf]# ceph-deploy new node1 node2 node3
[root@node1 ceph_conf]# ls
11、安裝ceph集群
[root@node1 ceph_conf]# ceph-deploy install node1 node2 node3
12、初始化所有節點的MON服務
[root@node1 ceph_conf]# ceph-deploy mon create-initial

配置CEPH集群
1、在node1~node3節點上對vdb進行分區,將vdb的分區用于日志
[root@node1 ceph_conf]# for host in node{1..3}

do
ssh $host parted /dev/vdb mklabel gpt
done
[root@node1 ceph_conf]# for host in node{1..3}; do ssh $host parted /dev/vdb mkpart primary 1024kB 50%; done
[root@node1 ceph_conf]# for host in node{1..3}; do ssh $host parted /dev/vdb mkpart primary 50% 100%; done
[root@node1 ceph_conf]# for host in node{1..3}; do ssh $host lsblk; done
[root@node1 ceph_conf]# for host in node{1..3}; do ssh $host chown ceph.ceph /dev/vdb?; done # 系統重啟后屬主屬組又變回root.disk了。

配置udev,使得磁盤屬主屬組在reboot后,仍然是ceph
[root@node3 ~]# vim /etc/udev/rules.d/90-mydisk.rules
ACTION=="add", KERNEL=="vdb[12]", OWNER="ceph", GROUP="ceph"

2、創建OSD磁盤,在node1上執行
(1)初始化磁盤
[root@node1 ceph_conf]# for host in node{1..3}

do
ceph-deploy disk zap $host:vdc $host:vdd
done
(2)創建OSD,將數據的日志區指定為vdb
[root@node1 ceph_conf]# for host in node{1..3}
do
ceph-deploy osd create $host:vdc:/dev/vdb1 $host:vdd:/dev/vdb2
done
如果出現run ‘gatherkeys’的錯誤提示,執行以下命令
[root@node1 ceph_conf]# ceph-deploy gatherkeys node1 node2 node3
(3)查看狀態
[root@node1 ceph_conf]# ceph -s 如果正常將顯示HEATH_OK
如果狀態是HEALTH_ERR,就重啟服務,如下:
[root@node1 ceph_conf]# for host in node{1..3}; do ssh $host systemctl restart ceph*.service ceph*.target ; done

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

新竹县| 安阳县| 岳普湖县| 沙洋县| 普宁市| 漯河市| 建宁县| 隆化县| 华坪县| 白山市| 温泉县| 齐齐哈尔市| 蒲江县| 土默特左旗| 遵义市| 嘉善县| 公安县| 富平县| 白水县| 西吉县| 裕民县| 延长县| 泾阳县| 青神县| 中宁县| 贡觉县| 安多县| 炎陵县| 宿州市| 大洼县| 江达县| 竹溪县| 苏尼特右旗| 晋城| 江津市| 张家界市| 开原市| 普宁市| 讷河市| 乐至县| 科技|