91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

k8s如何解決節點狀態為 NotReady的部署問題

發布時間:2020-11-20 16:34:21 來源:億速云 閱讀:2813 作者:小新 欄目:系統運維

這篇文章給大家分享的是有關k8s如何解決節點狀態為 NotReady的部署問題的內容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

問題

使用kubectl get nodes查看已加入的節點時,出現了Status為NotReady的情況。

root@master1:~# kubectl get nodes
NAME      STATUS      ROLES    AGE    VERSION
master1   NotReady    master   152m   v1.18.1
worker1   NotReady       94m    v1.18.1

這種情況是因為有某些關鍵的 pod 沒有運行起來,首先使用如下命令來看一下kube-system的 pod 狀態:

kubectl get pod -n kube-system
NAME                              READY   STATUS             RESTARTS   AGE
coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
etcd-master1                      1/1     Running            2          3h10m
kube-apiserver-master1            1/1     Running            2          3h11m
kube-controller-manager-master1   1/1     Running            2          3h10m
kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
kube-proxy-27zfk                  1/1     Pending            2          3h11m
kube-proxy-lx4gk                  1/1     Pending            0          133m
kube-scheduler-master1            1/1     Running            2          3h11m

如上,可以看到 pod kube-flannel 的狀態是ImagePullBackoff,意思是鏡像拉取失敗了,所以我們需要手動去拉取這個鏡像。這里可以看到某些 pod 運行了兩個副本是因為我有兩個節點存在了。

你也可以通過kubectl describe pod -n kube-system <服務名>來查看某個服務的詳細情況,如果 pod 存在問題的話,你在使用該命令后在輸出內容的最下面看到一個[Event]條目,如下:

root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system

...

Events:
  Type     Reason                  Age                 From              Message
  ----     ------                  ----                ----              -------
  Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
  Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
  Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
  Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"

手動拉取鏡像

flannel的鏡像可以使用如下命令拉到,如果你是其他鏡像沒拉到的話,百度一下就可以找到國內的鏡像源地址了,這里記得把最后面的版本號修改成你自己的版本,具體的版本號可以用上面說的kubectl describe命令看到:

拉去鏡像:

docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64

等鏡像拉取完了之后需要把鏡像名改一下,改成 k8s 沒有拉到的那個鏡像名稱,我這里貼的鏡像名和版本和你的不一定一樣,注意修改:

docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

修改完了之后過幾分鐘 k8s 會自動重試,等一下就可以發現不僅flannel正常了,其他的 pod 狀態也都變成了Running,這時再看 node 狀態就可以發現問題解決了:

[kubeadm@server1 ~]$ kubectl get nodes
NAME      STATUS   ROLES    AGE    VERSION
server1   Ready    master   150m   v1.18.1
server2   Ready       150m   v1.18.1
server3   Ready       150m   v1.18.1
[kubeadm@server1 ~]$ 

k8s如何解決節點狀態為 NotReady的部署問題

感謝各位的閱讀!關于k8s如何解決節點狀態為 NotReady的部署問題就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

福州市| 当阳市| 松阳县| 南丹县| 安丘市| 华阴市| 德清县| 教育| 济南市| 聂拉木县| 顺昌县| 南部县| 西城区| 宝清县| 洪江市| 古浪县| 开鲁县| 孙吴县| 固阳县| 固原市| 西安市| 申扎县| 马公市| 买车| 香格里拉县| 即墨市| 隆尧县| 和林格尔县| 布拖县| 玉龙| 襄汾县| 新河县| 密山市| 平凉市| 历史| 永福县| 陆川县| 桃园市| 获嘉县| 简阳市| 会同县|