您好,登錄后才能下訂單哦!
小編給大家分享一下Kubernetes 1.15.0如何快速升級,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
sudo apt install kubeadm=1.15.0-00 kubectl=1.15.0-00 kubelet=1.15.0-00
kubernetes for china
查看該版本的容器鏡像版本:
kubeadm config images list
輸出如下:
~# kubeadm config images list k8s.gcr.io/kube-apiserver:v1.15.0 k8s.gcr.io/kube-controller-manager:v1.15.0 k8s.gcr.io/kube-scheduler:v1.15.0 k8s.gcr.io/kube-proxy:v1.15.0 k8s.gcr.io/pause:3.1k8s.gcr.io/etcd:3.3.10 k8s.gcr.io/coredns:1.3.1
原始的kubernetes鏡像文件在gcr上,不能直接下載。我給鏡像到了阿里云的杭州機房的容器倉庫里,拉取還是比較快的。
echo "" echo "==========================================================" echo "Pull Kubernetes v1.15.0 Images from aliyuncs.com ......" echo "==========================================================" echo "" MY_REGISTRY=registry.cn-hangzhou.aliyuncs.com/openthings ## 拉取鏡像 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 docker pull ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 docker pull ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 ## 添加Tag docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.15.0 k8s.gcr.io/kube-apiserver:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.15.0 k8s.gcr.io/kube-scheduler:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.15.0 k8s.gcr.io/kube-controller-manager:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.15.0 k8s.gcr.io/kube-proxy:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 k8s.gcr.io/etcd:3.3.10 docker tag ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 k8s.gcr.io/pause:3.1 docker tag ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 k8s.gcr.io/coredns:1.3.1 echo "" echo "==========================================================" echo "Pull Kubernetes v1.15.0 Images FINISHED." echo "into registry.cn-hangzhou.aliyuncs.com/openthings, " echo " by openthings@https://my.oschina.net/u/2306127." echo "==========================================================" echo ""
保存為shell腳本,然后執行。
或者,下載腳本:https://github.com/openthings/kubernetes-tools/blob/master/kubeadm/2-images/
全新安裝:
#指定IP地址,1.15.0版本: sudo kubeadm init --kubernetes-version=v1.15.0 --apiserver-advertise-address=10.1.1.199 --pod-network-cidr=10.244.0.0/16 #注意,CoreDNS已經內置,不再需要參數--feature-gates CoreDNS=true
先查看一下需要升級的各個組件的版本。
使用kubeadm upgrade plan ,輸出的版本升級信息如下:
COMPONENT CURRENT AVAILABLE API Server v1.14.1 v1.15.0 Controller Manager v1.14.1 v1.15.0 Scheduler v1.14.1 v1.15.0 Kube Proxy v1.14.1 v1.15.0 CoreDNS 1.3.1 1.3.1 Etcd 3.3.10 3.3.10
確保上面的容器鏡像已經下載(如果沒有提前下載,可能被網絡阻隔導致掛起),然后執行升級:
kubeadm upgrade -y apply v1.15.0
看到下面信息,就OK了。
[upgrade/successful] SUCCESS! Your cluster was upgraded to "v1.15.0". Enjoy!
然后,配置當前用戶環境:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
就可以使用 kubectl version 來查看狀態和 kubectl cluster-info 查看服務地址。
每個工作節點需要拉取上面對應版本的鏡像,以及安裝kubelet的對應版本。
檢查版本:
~$ kubectl version
查看Pod信息:
kubectl get pod --all-namespaces
完成。
從1.13.x之前的版本升級上了的話,因為api改變(kubelet升為1.14后無法啟動apiserver),導致新的kubeadm訪問以前的apiserver出錯,從而升級失敗。可以拉取鏡像下來后,手工切換鏡像的版本(所有節點的/etc/kubernetes/manifests下的文件都需要修改)。
對每一個節點,執行下面的步驟:
cd /etc/kubernetes/manifests/。
改變所有的 *.yaml , 指定 images 版本為 1.15.0。
在1.14.0版本升級完后,出現問題(1.14.1仍存在):
工作節點 join 到 cluster失敗,參見 [kubeadm] #76013, https://github.com/kubernetes/kubernetes/issues/76013
據有的社區成員測試,全新安裝的1.14集群可以正常運行。
我的集群是從1.13.4上升級而來,經測試1.14.1版本,該問題仍然存在。
kube-proxy的版本需要進管理工具去修改DaemonSet的images版本號為1.14.1。
coredns的版本需要進管理工具去修改復制集的images版本號為1.3.1。
可以參考《Kubernetes中強制刪除已銷毀的頑固pod》。
再次運行flannel的安裝,不管用。
但是,修改完重啟集群就起不來了。進去看pod狀態為Crash。
強制刪除CoreDNS的Pod運行實例。Kubernetes會自動啟動新的實例。
原來安裝的jupyterhub起不來了,進去看hub pod狀態為Crash。
hub-db-dir目錄下的jupyterhub.sqllite寫入臨時文件存在,導致鎖死,不是glusterfs寫入權限問題。
設置gluster volume heal vol01 enable,讓其數據同步。
重啟volume或者glusterd服務。
或者,刪除所有gluster存儲節點下的hub-db-dir目錄下的jupyterhub.sqllite文件,再刪除hub pod,使其自動重建文件。
一般上面幾步后,能夠恢復。
參考:GlusterFS: 訪問權限設置
查看hub的日志,顯示SQLlite訪問出錯,將其從宿主存儲目錄下移除,訪問hub service失敗。
刪除hub pod后,service的proxy-public也無法連接。
強制刪除JupyterHub的hub和Proxy的Pod運行實例。
強制刪除CoreDNS的Pod運行實例,Kubernetes自動啟動新實例后,運行恢復。
有時候是glusterfs設置權限問題,setfacl/getfacl進行設置。
進一步檢查,發現可能是GlusterFS的volume寫入問題,不同步引起的。
其它:
出現整個集群無法訪問,kubectl get node失敗,kubectl version時apiserver訪問失敗。
查看其中一個節點route,再次出現神秘的podsxx 255.255.255.255路由記錄,route del刪除記錄失敗。
運行sudo netplan apply后,路由記錄消失,節點恢復可訪問。
以上是“Kubernetes 1.15.0如何快速升級”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。