您好,登錄后才能下訂單哦!
1,為什么要使用Storage Class?
2,stroage class在集群中的作用?
pvc是無法直接去向nfs-client-provisioner申請使用的存儲空間的,這時,就需要通過SC這個資源對象去申請了,SC的根本作用就是根據pvc定義的來動態創建pv,不僅節省了我們管理員的時間,還可以封裝不同類型的存儲供pvc選用。
Provisioner(供給方):提供了存儲資源的存儲系統。
ReclaimPolicy:pv的回收策略,可用的值有Delete(默認)和Retiain
Parameters(參數):存儲類使用參數描述要關聯到存儲卷。
3,下面基于NFS服務來實踐storage class
1)搭建NFS服務(我將master節點作為nfs server):
[root@master ~]# yum -y install nfs-utils
[root@master ~]# vim /etc/exports
/nfsdata *(rw,sync,no_root_squash)
[root@master ~]# mkdir /nfsdata #創建共享目錄
[root@master ~]# systemctl start rpcbind
[root@master ~]# systemctl enable rpcbind
[root@master ~]# systemctl start nfs-server
[root@master ~]# systemctl enable nfs-server
[root@master ~]# showmount -e #確保成功掛載
Export list for master:
/nfsdata *
2)創建rbac權限:
rbac(基于角色的訪問控制),就是用戶通過角色與權限進行關聯。
是一個從認證-----> 授權-----> 準入機制。
[root@master sc]# vim rbac-rolebind.yaml
apiVersion: v1
kind: ServiceAccount
metadata:
name: nfs-provisioner
namespace: default
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
name: nfs-provisioner-runner
namespace: default
rules:
- apiGroups: [""]
resources: ["persistentvolumes"]
verbs: ["get", "list", "watch", "create", "delete"]
- apiGroups: [""]
resources: ["persistentvolumeclaims"]
verbs: ["get", "list", "watch", "update"]
- apiGroups: ["storage.k8s.io"]
resources: ["storageclasses"]
verbs: ["get", "list", "watch"]
- apiGroups: [""]
resources: ["events"]
verbs: ["watch", "create", "update", "patch"]
- apiGroups: [""]
resources: ["services", "endpoints"]
verbs: ["get","create","list", "watch","update"]
- apiGroups: ["extensions"]
resources: ["podsecuritypolicies"]
resourceNames: ["nfs-provisioner"]
verbs: ["use"]
---
kind: ClusterRoleBinding
apiVersion: rbac.authorization.k8s.io/v1
metadata:
name: run-nfs-provisioner
subjects:
- kind: ServiceAccount
name: nfs-provisioner
namespace: default
roleRef:
kind: ClusterRole
name: nfs-provisioner-runner
apiGroup: rbac.authorization.k8s.io
//執行yaml文件:
[root@master sc]# kubectl apply -f rbac-rolebind.yaml
serviceaccount/nfs-provisioner created
clusterrole.rbac.authorization.k8s.io/nfs-provisioner-runner created
clusterrolebinding.rbac.authorization.k8s.io/run-nfs-provisioner created
以上我們新建的一個名為nfs-provisioner的ServiceAccount,然后綁定了一個名為nfs-provisioner-runner的ClusterRole,而該ClusterRole聲明了一些權限,其中就包括對pv的增,刪,改,查等權限,所以我們可以利用該serviceAccount來自動創建pv。
3)創建一個nfs的Deployment
將里面的對應的參數替換成我們自己的nfs配置。
[root@master sc]# vim nfs-deployment.yaml
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: nfs-client-provisioner
namespace: default
spec:
replicas: 1
strategy:
type: Recreate
template:
metadata:
labels:
app: nfs-client-provisioner
spec:
serviceAccount: nfs-provisioner
containers:
- name: nfs-client-provisioner
image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner
volumeMounts:
- name: nfs-client-root
mountPath: /persistentvolumes
env:
- name: PROVISIONER_NAME
value: nfs-deploy #供給方的名稱(自定義)
- name: NFS_SERVER
value: 172.16.1.30 #nfs服務器的ip地址
- name: NFS_PATH
value: /nfsdata #nfs共享的目錄
volumes:
- name: nfs-client-root
nfs:
server: 172.16.1.30
path: /nfsdata
//導入nfs-client-provisioner鏡像(集群中的每個節點都需導入,包括master)
[root@master sc]# docker load --input nfs-client-provisioner.tar
5bef08742407: Loading layer 4.221MB/4.221MB
c21787dcfbf0: Loading layer 2.064MB/2.064MB
00376105a0f3: Loading layer 41.08MB/41.08MB
Loaded image: registry.cn-hangzhou.aliyuncs.com/open-ali/nfs-client-provisioner:latest
//執行yaml文件:
[root@master sc]# kubectl apply -f nfs-deployment.yaml
deployment.extensions/nfs-client-provisioner created
//確保pod正常運行
[root@master sc]# kubectl get pod
NAME READY STATUS RESTARTS AGE
nfs-client-provisioner-5457694c8b-k8t4m 1/1 Running 0 23s
nfs-client-provisionser工具的作用:它通過k8s的內置的nfs驅動掛載遠端的nfs服務器到本地目錄,然后將自身作為storage provide(存儲提供),關聯sc。
4)創建storage class:
[root@master sc]# vim test-sc.yaml
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: statefu-nfs
namespace: default
provisioner: nfs-deploy
reclaimPolicy: Retain
我們聲明了一個名為statefu-nfs的sc對象,注意下面的provisioner字段對應的值一定要和上面的nfs的Deployment下面的PROVISIONER_NAME這個環境變量的值一樣。
//創建該資源對象:
[root@master sc]# kubectl apply -f test-sc.yaml
storageclass.storage.k8s.io/statefu-nfs created
5)上面把SC資源對象創建成功了,接下來我們測試是否能夠動態創建pv。
//首先我們創建一個pvc對象:
[root@master sc]# vim test-pvc.yaml
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: test-claim
namespace: default
spec:
storageClassName: statefu-nfs #sc一定要指向上面創建的sc名稱
accessModes:
- ReadWriteMany #采用ReadWriteMany的訪問模式
resources:
requests:
storage: 50Mi #請求50M的空間
//執行yaml文件來創建pvc:
[root@master sc]# kubectl apply -f test-pvc.yaml
persistentvolumeclaim/test-claim created
我們可以看到pvc創建成功,狀態已經是Bound了,是不是也生產了一個對應的volume對象,最重要的一欄是STORAGECLASS,現在的值就是我們剛剛創建的sc對象名稱”statefu-nfs“。
//接下來我們查看一下pv,驗證是否動態創建:
我們可以看到已經自動生成了一個關聯的pv對象,訪問模式是RWX(在sc中定義的模式),回收策略Delete ,狀態同樣是Bound,是通過sc動態創建的,而并不是我們手動創建的。
我們通過部署一個nginx服務來測試我們上面用stroage class方式聲明的pvc對象(實現數據持久化)。
[root@master sc]# vim nginx-pod.yaml
kind: Pod
apiVersion: v1
metadata:
name: nginx-pod
namespace: default
spec:
containers:
- name: nginx-pod
image: nginx
volumeMounts: #定義數據持久化
- name: nfs-pvc
mountPath: /usr/share/nginx/html
volumes:
- name: nfs-pvc
persistentVolumeClaim: #指定pvc,注意下面聲明的pvc指向的是上面定義的pvc名稱
claimName: test-claim
//運行nginx,并查看pod是否正常運行:
[root@master sc]# kubectl apply -f nginx-pod.yaml
pod/nginx-pod created
//我們進入pod中,創建測試網頁文件:
[root@master ~]# kubectl exec -it nginx-pod /bin/bash
root@nginx-pod:/# cd /usr/share/nginx/html/
root@nginx-pod:/usr/share/nginx/html# echo "<h2>welcome to Storage Class web</h2>" > index.html
root@nginx-pod:/usr/share/nginx/html# cat index.html
<h2>welcome to Storage Class web</h2>
root@nginx-pod:/usr/share/nginx/html# exit
//我們回到nfs服務器的共享數據目錄下查看文件是否同步:
在nfs目錄下我們可以可以看到有名字很很長的文件夾,這個文件夾的命名方式就是我們上面的規則生成的。
我們進入到該目錄下,可以看到nginx中的數據已經實現同步,且實現了數據持久化(這里就不做測試了,可自行測試)
最后測試nginx是否能夠正常訪問我們編寫的網頁:
//創建service資源對象,關聯上邊的pod,映射端口號。
一個完整的yaml文件內容如下:
kind: Pod
apiVersion: v1
metadata:
name: nginx-pod
namespace: default
labels:
app: web
spec:
containers:
- name: nginx-pod
image: nginx
volumeMounts:
- name: nfs-pvc
mountPath: /usr/share/nginx/html
volumes:
- name: nfs-pvc
persistentVolumeClaim:
claimName: test-claim
---
apiVersion: v1
kind: Service
metadata:
name: nginx-svc
namespace: default
spec:
type: NodePort
selector:
app: web
ports:
- name: nginx
port: 80
targetPort: 80
nodePort: 32134
//重新加載nginx,并訪問網頁:
[root@master sc]# kubectl apply -f nginx-pod.yaml
pod/nginx-pod configured
service/nginx-svc created
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。