您好,登錄后才能下訂單哦!
對服務器程序來說,究竟是有狀態服務,還是無狀態服務,其判斷依舊是指兩個來自相同發起者的請求在服務器端是否具備上下文關系。如果是狀態化請求,那么服務器端一般都要保存請求的相關信息,每個請求可以默認地使用以前的請求信息。而對于無狀態請求,服務器端所能夠處理的過程必須全部來自于請求所攜帶的信息,以及其他服務器端自身所保存的、并且可以被所有請求所使用的公共信息。
無狀態的服務器程序,最著名的就是WEB服務器。每次HTTP請求和以前都沒有什么關系,只是獲取目標URI。得到目標內容之后,這次連接就被殺死,沒有任何痕跡。在后來的發展進程中,逐漸在無狀態化的過程中,加入狀態化的信息,比如COOKIE。服務端在響應客戶端的請求的時候,會向客戶端推送一個COOKIE,這個COOKIE記錄服務端上面的一些信息。客戶端在后續的請求中,可以攜帶這個COOKIE,服務端可以根據這個COOKIE判斷這個請求的上下文關系。COOKIE的存在,是無狀態化向狀態化的一個過渡手段,他通過外部擴展手段,COOKIE來維護上下文關系。
狀態化的服務器有更廣闊的應用范圍,比如MSN、網絡游戲等服務器。他在服務端維護每個連接的狀態信息,服務端在接收到每個連接的發送的請求時,可以從本地存儲的信息來重現上下文關系。這樣,客戶端可以很容易使用缺省的信息,服務端也可以很容易地進行狀態管理。比如說,當一個用戶登錄后,服務端可以根據用戶名獲取他的生日等先前的注冊信息;而且在后續的處理中,服務端也很容易找到這個用戶的歷史信息。
狀態化服務器在功能實現方面具有更加強大的優勢,但由于他需要維護大量的信息和狀態,在性能方面要稍遜于無狀態服務器。無狀態服務器在處理簡單服務方面有優勢,但復雜功能方面有很多弊端,比如,用無狀態服務器來實現即時通訊服務器,將會是場惡夢。
在k8s中,對web這種無狀態服務實現數據持久化時,采用我之前的博文:K8s數據持久化之自動創建PV的方式對其實現即可。但是如果對數據庫這種有狀態的服務使用這種數據持久化方式的話,那么將會有一個很嚴重的問題,就是當對數據庫進行寫入操作時,你會發現只能對后端的多個容器中的其中一個容器進行寫入,當然,nfs目錄下也會有數據庫寫入的數據,但是,其無法被其他數據庫讀取到,因為在數據庫中有很多影響因素,比如server_id,數據庫分區表信息等。
當然,除了數據庫之外,還有其他的有狀態服務不可以使用上述的數據持久化方式。
StatefulSet也是一種資源對象(在kubelet 1.5版本之前都叫做PetSet),這種資源對象和RS、RC、Deployment一樣,都是Pod控制器。
在Kubernetes中,大多數的Pod管理都是基于無狀態、一次性的理念。例如Replication Controller,它只是簡單的保證可提供服務的Pod數量。如果一個Pod被認定為不健康的,Kubernetes就會以對待牲畜的態度對待這個Pod——刪掉、重建。相比于牲畜應用,PetSet(寵物應用),是由一組有狀態的Pod組成,每個Pod有自己特殊且不可改變的ID,且每個Pod中都有自己獨一無二、不能刪除的數據。
眾所周知,相比于無狀態應用的管理,有狀態應用的管理是非常困難的。有狀態的應用需要固定的ID、有自己內部可不見的通信邏輯、特別容器出現劇烈波動等。傳統意義上,對有狀態應用的管理一般思路都是:固定機器、靜態IP、持久化存儲等。Kubernetes利用PetSet這個資源,弱化有狀態Pet與具體物理設施之間的關聯。一個PetSet能夠保證在任意時刻,都有固定數量的Pet在運行,且每個Pet都有自己唯一的身份。
一個“有身份”的Pet指的是該Pet中的Pod包含如下特性:
- 靜態存儲;
- 有固定的主機名,且DNS可尋址(穩定的網絡身份,這是通過一種叫 Headless Service 的特殊Service來實現的。 和普通Service相比,Headless Service沒有Cluster IP,用于為一個集群內部的每個成員提供一個唯一的DNS名字,用于集群內部成員之間通信 。);
- 一個有序的index(比如PetSet的名字叫mysql,那么第一個啟起來的Pet就叫mysql-0,第二個叫mysql-1,如此下去。當一個Pet down掉后,新創建的Pet會被賦予跟原來Pet一樣的名字,通過這個名字就能匹配到原來的存儲,實現狀態保存。)
1、應用舉例:
- 數據庫應用,如Mysql、PostgreSQL,需要一個固定的ID(用于數據同步)以及外掛一塊NFS Volume(持久化存儲)。
- 集群軟件,如zookeeper、Etcd,需要固定的成員關系。
2、使用限制- 1.4新加功能,1.3及之前版本不可用;
- DNS,要求使用1.4或1.4之后的DNS插件,1.4之前的插件只能解析Service對應的IP,無法解析Pod(HostName)對應的域名;
- 需要持久化數據卷(PV,若為nfs這種無法通過調用API來創建存儲的網絡存儲,數據卷要在創建PetSet之前靜態創建;若為aws-ebs、vSphere、openstack Cinder這種可以通過API調用來動態創建存儲的虛擬存儲,數據卷除了可以通過靜態的方式創建以外,還可以通過StorageClass進行動態創建。需要注意的是,動態創建出來的PV,默認的回收策略是delete,及在刪除數據的同時,還會把虛擬存儲卷刪除);
- 刪除或縮容PetSet不會刪除對應的持久化數據卷,這么做是出于數據安全性的考慮;
- 只能通過手動的方式升級PetSet。
這種方式,與K8s數據持久化之自動創建PV的方式有很多相同點,都需要底層NFS存儲、rbac授權賬戶,nfs-client-Provisioner提供存儲,SC存儲類這些東西,唯一不同的是,這種針對于有狀態服務的數據持久化,并不需要我們手動創建PV。
搭建registry私有倉庫:
[root@master ~]# docker run -tid --name registry -p 5000:5000 -v /data/registry:/var/lib/registry --restart always registry
[root@master ~]# vim /usr/lib/systemd/system/docker.service #更改docker的配置文件,以便指定私有倉庫
ExecStart=/usr/bin/dockerd -H unix:// --insecure-registry 192.168.20.6:5000
[root@master ~]# scp /usr/lib/systemd/system/docker.service node01:/usr/lib/systemd/system/
[root@master ~]# scp /usr/lib/systemd/system/docker.service node02:/usr/lib/systemd/system/
[root@master ~]# systemctl daemon-reload
[root@master ~]# systemctl restart docker
搭建NFS服務:
[root@master ~]# yum -y install nfs-utils
[root@master ~]# systemctl enable rpcbind
[root@master ~]# vim /etc/exports
/nfsdata *(rw,sync,no_root_squash)
[root@master ~]# systemctl start rpcbind
[root@master ~]# systemctl start nfs
[root@master ~]# showmount -e
Export list for master:
/nfsdata *
以上皆屬于準備工作。
1、使用自定義鏡像,創建StatefulSet資源對象,要求每個都做數據持久化。副本數量為6個。數據持久化目錄為:/usr/local/apache2/htdocs
創建rbac授權
[root@master ljz]# vim rbac.yaml #編寫yaml文件
apiVersion: v1
kind: ServiceAccount
metadata:
name: nfs-provisioner
namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: nfs-provisioner-runner
namespace: default
rules:
- apiGroups: [""]
resources: ["persistentvolumes"]
verbs: ["get", "list", "watch", "create", "delete"]
- apiGroups: [""]
resources: ["persistentvolumeclaims"]
verbs: ["get", "list", "watch", "update"]
- apiGroups: ["storage.k8s.io"]
resources: ["storageclasses"]
verbs: ["get", "list", "watch"]
- apiGroups: [""]
resources: ["events"]
verbs: ["watch", "create", "update", "patch"]
- apiGroups: [""]
resources: ["services", "endpoints"]
verbs: ["get","create","list", "watch","update"]
- apiGroups: ["extensions"]
resources: ["podsecuritypolicies"]
resourceNames: ["nfs-provisioner"]
verbs: ["use"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: run-nfs-provisioner
subjects:
- kind: ServiceAccount
name: nfs-provisioner
namespace: default
roleRef:
kind: ClusterRole
name: nfs-provisioner-runner
apiGroup: rbac.authorization.k8s.io
[root@master ljz]# kubectl apply -f rbac.yaml #執行yaml文件
創建NFS-clinet-Provisioner
[root@master ljz]# vim nfs-deploymnet.yaml #編寫yaml文件
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nfs-client-provisioner
namespace: default
spec:
replicas: 1
strategy:
type: Recreate
template:
metadata:
labels:
app: nfs-client-provisioner
spec:
serviceAccount: nfs-provisioner
containers:
- name: nfs-client-provisioner
image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner
volumeMounts:
- name: nfs-client-root
mountPath: /persistentvolumes
env:
- name: PROVISIONER_NAME
value: ljz
- name: NFS_SERVER
value: 192.168.20.6
- name: NFS_PATH
value: /nfsdata
volumes:
- name: nfs-client-root
nfs:
server: 192.168.20.6
path: /nfsdata
[root@master ljz]# kubectl apply -f nfs-deploymnet.yaml #執行yaml文件
創建SC(storageClass)
[root@master ljz]# vim sc.yaml #編寫yaml文件
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: test-sc
provisioner: ljz
reclaimPolicy: Retain
[root@master ljz]# kubectl apply -f sc.yaml #執行yaml文件
創建POd
[root@master ljz]# vim statefulset.yaml #編寫yaml文件
apiVersion: v1
kind: Service
metadata:
name: headless-svc
labels:
app: headless-svc
spec:
ports:
- name: testweb
port: 80
selector:
app: headless-pod
clusterIP: None
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: statefulset
spec:
serviceName: headless-svc
replicas: 6
selector:
matchLabels:
app: headless-pod
template:
metadata:
labels:
app: headless-pod
spec:
containers:
- name: testhttpd
image: 192.168.20.6:5000/ljz:v1
ports:
- containerPort: 80
volumeMounts:
- name: test
mountPath: /usr/local/apache2/htdocs
volumeClaimTemplates:
- metadata:
name: test
annotations:
volume.beta.kubernetes.io/storage-class: test-sc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 100Mi
[root@master ljz]# kubectl apply -f statefulset.yaml
[root@master ljz]# kubectl get pod -w
NAME READY STATUS RESTARTS AGE
nfs-client-provisioner-6649749f97-cl92m 1/1 Running 0 7m57s
statefulset-0 1/1 Running 0 26s
statefulset-1 1/1 Running 0 24s
statefulset-2 1/1 Running 0 20s
statefulset-3 1/1 Running 0 16s
statefulset-4 1/1 Running 0 13s
statefulset-5 1/1 Running 0 9s
[root@master ljz]# kubectl get pv,pvc
2、完成之后,要求第0--5個Pod的主目錄應該為: Version:--v1
將服務進行擴容:副本數量更新為10個,驗證是否會繼續為新的Pod創建持久化的PV,PVC
[root@master ljz]# vim a.sh #編寫腳本定義首頁
#!/bin/bash
for i in `ls /nfsdata`
do
echo "Version: --v1" > /nfsdata/${i}/index.html
done
[root@master ljz]# kubectl get pod -o wide #查看節點IP,隨機驗證首頁文件
[root@master ljz]# curl 10.244.1.3
Version: --v1
[root@master ljz]# curl 10.244.1.5
Version: --v1
[root@master ljz]# curl 10.244.2.4
Version: --v1
#進行擴容更新
[root@master ljz]# vim statefulset.yaml
apiVersion: v1
kind: Service
metadata:
name: headless-svc
labels:
app: headless-svc
spec:
ports:
- name: testweb
port: 80
selector:
app: headless-pod
clusterIP: None
---
apiVersion: apps/v1
kind: StatefulSet
metadata:
name: statefulset
spec:
updateStrategy:
rollingUpdate:
partition: 4
serviceName: headless-svc
replicas: 10
selector:
matchLabels:
app: headless-pod
template:
metadata:
labels:
app: headless-pod
spec:
containers:
- name: testhttpd
image: 192.168.20.6:5000/ljz:v2
ports:
- containerPort: 80
volumeMounts:
- name: test
mountPath: /usr/local/apache2/htdocs
volumeClaimTemplates:
- metadata:
name: test
annotations:
volume.beta.kubernetes.io/storage-class: test-sc
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 100Mi
[root@master ljz]# kubectl get pod -w #查看其更新過程
NAME READY STATUS RESTARTS AGE
nfs-client-provisioner-6649749f97-cl92m 1/1 Running 0 40m
statefulset-0 1/1 Running 0 33m
statefulset-1 1/1 Running 0 33m
statefulset-2 1/1 Running 0 33m
statefulset-3 1/1 Running 0 33m
statefulset-4 1/1 Running 0 33m
statefulset-5 1/1 Running 0 33m
statefulset-6 0/1 ImagePullBackOff 0 5m9s
statefulset-6 1/1 Running 0 5m41s
statefulset-7 0/1 Pending 0 0s
statefulset-7 0/1 Pending 0 0s
statefulset-7 0/1 Pending 0 2s
statefulset-7 0/1 ContainerCreating 0 2s
statefulset-7 1/1 Running 0 4s
statefulset-8 0/1 Pending 0 0s
statefulset-8 0/1 Pending 0 0s
statefulset-8 0/1 Pending 0 1s
statefulset-8 0/1 ContainerCreating 0 1s
statefulset-8 1/1 Running 0 3s
statefulset-9 0/1 Pending 0 0s
statefulset-9 0/1 Pending 0 0s
statefulset-9 0/1 Pending 0 1s
statefulset-9 0/1 ContainerCreating 0 1s
statefulset-9 1/1 Running 0 3s
statefulset-5 1/1 Terminating 0 33m
statefulset-5 0/1 Terminating 0 33m
statefulset-5 0/1 Terminating 0 33m
statefulset-5 0/1 Terminating 0 33m
statefulset-5 0/1 Pending 0 0s
statefulset-5 0/1 Pending 0 0s
statefulset-5 0/1 ContainerCreating 0 0s
statefulset-5 1/1 Running 0 1s
statefulset-4 1/1 Terminating 0 33m
statefulset-4 0/1 Terminating 0 34m
statefulset-4 0/1 Terminating 0 34m
statefulset-4 0/1 Terminating 0 34m
statefulset-4 0/1 Pending 0 0s
statefulset-4 0/1 Pending 0 0s
statefulset-4 0/1 ContainerCreating 0 0s
statefulset-4 1/1 Running 0 1s
[root@master ljz]# kubectl get pv,pvc #查看其為擴容后的容器創建的pv及pvc
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
persistentvolume/pvc-161fc655-7601-4996-99c8-a13cabaa4ad1 100Mi RWO Delete Bound default/test-statefulset-0 test-sc 38m
persistentvolume/pvc-1d1b0cfd-83cc-4cd6-a380-f23b9eac0411 100Mi RWO Delete Bound default/test-statefulset-4 test-sc 37m
persistentvolume/pvc-297495a8-2117-4232-8e9a-61019c03f0d0 100Mi RWO Delete Bound default/test-statefulset-7 test-sc 3m41s
persistentvolume/pvc-2e48a292-cb30-488e-90a9-5184811b9eb8 100Mi RWO Delete Bound default/test-statefulset-5 test-sc 37m
persistentvolume/pvc-407e2c0e-209d-4b5a-a3fa-454787f617a7 100Mi RWO Delete Bound default/test-statefulset-2 test-sc 37m
persistentvolume/pvc-56ac09a0-e51d-42a9-843b-f0a3a0c60a08 100Mi RWO Delete Bound default/test-statefulset-9 test-sc 3m34s
persistentvolume/pvc-90a05d1b-f555-44df-9bb3-73284001dda3 100Mi RWO Delete Bound default/test-statefulset-3 test-sc 37m
persistentvolume/pvc-9e2fd35e-5151-4790-b248-6545815d8c06 100Mi RWO Delete Bound default/test-statefulset-8 test-sc 3m37s
persistentvolume/pvc-9f60aab0-4491-4422-9514-1a945151909d 100Mi RWO Delete Bound default/test-statefulset-6 test-sc 9m22s
persistentvolume/pvc-ab64f8b8-737e-49a5-ae5d-e3b33188ce39 100Mi RWO Delete Bound default/test-statefulset-1 test-sc 37m
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
persistentvolumeclaim/test-statefulset-0 Bound pvc-161fc655-7601-4996-99c8-a13cabaa4ad1 100Mi RWO test-sc 38m
persistentvolumeclaim/test-statefulset-1 Bound pvc-ab64f8b8-737e-49a5-ae5d-e3b33188ce39 100Mi RWO test-sc 37m
persistentvolumeclaim/test-statefulset-2 Bound pvc-407e2c0e-209d-4b5a-a3fa-454787f617a7 100Mi RWO test-sc 37m
persistentvolumeclaim/test-statefulset-3 Bound pvc-90a05d1b-f555-44df-9bb3-73284001dda3 100Mi RWO test-sc 37m
persistentvolumeclaim/test-statefulset-4 Bound pvc-1d1b0cfd-83cc-4cd6-a380-f23b9eac0411 100Mi RWO test-sc 37m
persistentvolumeclaim/test-statefulset-5 Bound pvc-2e48a292-cb30-488e-90a9-5184811b9eb8 100Mi RWO test-sc 37m
persistentvolumeclaim/test-statefulset-6 Bound pvc-9f60aab0-4491-4422-9514-1a945151909d 100Mi RWO test-sc 9m22s
persistentvolumeclaim/test-statefulset-7 Bound pvc-297495a8-2117-4232-8e9a-61019c03f0d0 100Mi RWO test-sc 3m41s
persistentvolumeclaim/test-statefulset-8 Bound pvc-9e2fd35e-5151-4790-b248-6545815d8c06 100Mi RWO test-sc 3m37s
persistentvolumeclaim/test-statefulset-9 Bound pvc-56ac09a0-e51d-42a9-843b-f0a3a0c60a08 100Mi RWO test-sc 3m34s
[root@master nfsdata]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nfs-client-provisioner-6649749f97-cl92m 1/1 Running 0 54m 10.244.1.2 node01 <none> <none>
statefulset-0 1/1 Running 0 47m 10.244.1.3 node01 <none> <none>
statefulset-1 1/1 Running 0 47m 10.244.2.3 node02 <none> <none>
statefulset-2 1/1 Running 0 47m 10.244.2.4 node02 <none> <none>
statefulset-3 1/1 Running 0 47m 10.244.1.4 node01 <none> <none>
statefulset-4 1/1 Running 0 12m 10.244.2.8 node02 <none> <none>
statefulset-5 1/1 Running 0 13m 10.244.1.8 node01 <none> <none>
statefulset-6 1/1 Running 0 18m 10.244.2.6 node02 <none> <none>
statefulset-7 1/1 Running 0 13m 10.244.1.6 node01 <none> <none>
statefulset-8 1/1 Running 0 13m 10.244.2.7 node02 <none> <none>
statefulset-9 1/1 Running 0 13m 10.244.1.7 node01 <none> <none>
#查看其首頁文件
[root@master nfsdata]# curl 10.244.2.6
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 3.2 Final//EN">
<html>
<head>
<title>Index of /</title>
</head>
<body>
<h2>Index of /</h2>
<ul></ul>
</body></html>
[root@master nfsdata]# curl 10.244.1.8
Version: --v1
服務進行更新:在更新過程中,要求3以后的全部更新為Version:v2
[root@master ljz]# vim a.sh #編寫首頁文件
#!/bin/bash
for i in `ls /nfsdata/`
do
if [ `echo $i | awk -F - '{print $4}'` -gt 3 ]
then
echo "Version: --v2" > /nfsdata/${i}/index.html
fi
done
[root@master ljz]# sh a.sh #執行腳本
[root@master ljz]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nfs-client-provisioner-6649749f97-cl92m 1/1 Running 0 68m 10.244.1.2 node01 <none> <none>
statefulset-0 1/1 Running 0 60m 10.244.1.3 node01 <none> <none>
statefulset-1 1/1 Running 0 60m 10.244.2.3 node02 <none> <none>
statefulset-2 1/1 Running 0 60m 10.244.2.4 node02 <none> <none>
statefulset-3 1/1 Running 0 60m 10.244.1.4 node01 <none> <none>
statefulset-4 1/1 Running 0 26m 10.244.2.8 node02 <none> <none>
statefulset-5 1/1 Running 0 26m 10.244.1.8 node01 <none> <none>
statefulset-6 1/1 Running 0 32m 10.244.2.6 node02 <none> <none>
statefulset-7 1/1 Running 0 26m 10.244.1.6 node01 <none> <none>
statefulset-8 1/1 Running 0 26m 10.244.2.7 node02 <none> <none>
statefulset-9 1/1 Running 0 26m 10.244.1.7 node01 <none> <none>
#確認內容
[root@master ljz]# curl 10.244.1.4
Version: --v1
[root@master ljz]# curl 10.244.2.8
Version: --v2
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。