您好,登錄后才能下訂單哦!
小編給大家分享一下Kubernetes 1.15.0如何快速升級,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
sudo apt install kubeadm=1.15.0-00 kubectl=1.15.0-00 kubelet=1.15.0-00
kubernetes for china
查看該版本的容器鏡像版本:
kubeadm config images list
輸出如下:
~# kubeadm config images list k8s.gcr.io/kube-apiserver:v1.15.0 k8s.gcr.io/kube-controller-manager:v1.15.0 k8s.gcr.io/kube-scheduler:v1.15.0 k8s.gcr.io/kube-proxy:v1.15.0 k8s.gcr.io/pause:3.1k8s.gcr.io/etcd:3.3.10 k8s.gcr.io/coredns:1.3.1
原始的kubernetes鏡像文件在gcr上,不能直接下載。我給鏡像到了阿里云的杭州機房的容器倉庫里,拉取還是比較快的。
echo "" echo "==========================================================" echo "Pull Kubernetes v1.15.0 Images from aliyuncs.com ......" echo "==========================================================" echo "" MY_REGISTRY=registry.cn-hangzhou.aliyuncs.com/openthings ## 拉取鏡像 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.15.0 docker pull ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 docker pull ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 docker pull ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 ## 添加Tag docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-apiserver:v1.15.0 k8s.gcr.io/kube-apiserver:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-scheduler:v1.15.0 k8s.gcr.io/kube-scheduler:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-controller-manager:v1.15.0 k8s.gcr.io/kube-controller-manager:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-kube-proxy:v1.15.0 k8s.gcr.io/kube-proxy:v1.15.0 docker tag ${MY_REGISTRY}/k8s-gcr-io-etcd:3.3.10 k8s.gcr.io/etcd:3.3.10 docker tag ${MY_REGISTRY}/k8s-gcr-io-pause:3.1 k8s.gcr.io/pause:3.1 docker tag ${MY_REGISTRY}/k8s-gcr-io-coredns:1.3.1 k8s.gcr.io/coredns:1.3.1 echo "" echo "==========================================================" echo "Pull Kubernetes v1.15.0 Images FINISHED." echo "into registry.cn-hangzhou.aliyuncs.com/openthings, " echo " by openthings@https://my.oschina.net/u/2306127." echo "==========================================================" echo ""
保存為shell腳本,然后執(zhí)行。
或者,下載腳本:https://github.com/openthings/kubernetes-tools/blob/master/kubeadm/2-images/
全新安裝:
#指定IP地址,1.15.0版本: sudo kubeadm init --kubernetes-version=v1.15.0 --apiserver-advertise-address=10.1.1.199 --pod-network-cidr=10.244.0.0/16 #注意,CoreDNS已經(jīng)內(nèi)置,不再需要參數(shù)--feature-gates CoreDNS=true
先查看一下需要升級的各個組件的版本。
使用kubeadm upgrade plan ,輸出的版本升級信息如下:
COMPONENT CURRENT AVAILABLE API Server v1.14.1 v1.15.0 Controller Manager v1.14.1 v1.15.0 Scheduler v1.14.1 v1.15.0 Kube Proxy v1.14.1 v1.15.0 CoreDNS 1.3.1 1.3.1 Etcd 3.3.10 3.3.10
確保上面的容器鏡像已經(jīng)下載(如果沒有提前下載,可能被網(wǎng)絡(luò)阻隔導(dǎo)致掛起),然后執(zhí)行升級:
kubeadm upgrade -y apply v1.15.0
看到下面信息,就OK了。
[upgrade/successful] SUCCESS! Your cluster was upgraded to "v1.15.0". Enjoy!
然后,配置當(dāng)前用戶環(huán)境:
mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config
就可以使用 kubectl version 來查看狀態(tài)和 kubectl cluster-info 查看服務(wù)地址。
每個工作節(jié)點需要拉取上面對應(yīng)版本的鏡像,以及安裝kubelet的對應(yīng)版本。
檢查版本:
~$ kubectl version
查看Pod信息:
kubectl get pod --all-namespaces
完成。
從1.13.x之前的版本升級上了的話,因為api改變(kubelet升為1.14后無法啟動apiserver),導(dǎo)致新的kubeadm訪問以前的apiserver出錯,從而升級失敗??梢岳$R像下來后,手工切換鏡像的版本(所有節(jié)點的/etc/kubernetes/manifests下的文件都需要修改)。
對每一個節(jié)點,執(zhí)行下面的步驟:
cd /etc/kubernetes/manifests/。
改變所有的 *.yaml , 指定 images 版本為 1.15.0。
在1.14.0版本升級完后,出現(xiàn)問題(1.14.1仍存在):
工作節(jié)點 join 到 cluster失敗,參見 [kubeadm] #76013, https://github.com/kubernetes/kubernetes/issues/76013
據(jù)有的社區(qū)成員測試,全新安裝的1.14集群可以正常運行。
我的集群是從1.13.4上升級而來,經(jīng)測試1.14.1版本,該問題仍然存在。
kube-proxy的版本需要進管理工具去修改DaemonSet的images版本號為1.14.1。
coredns的版本需要進管理工具去修改復(fù)制集的images版本號為1.3.1。
可以參考《Kubernetes中強制刪除已銷毀的頑固pod》。
再次運行flannel的安裝,不管用。
但是,修改完重啟集群就起不來了。進去看pod狀態(tài)為Crash。
強制刪除CoreDNS的Pod運行實例。Kubernetes會自動啟動新的實例。
原來安裝的jupyterhub起不來了,進去看hub pod狀態(tài)為Crash。
hub-db-dir目錄下的jupyterhub.sqllite寫入臨時文件存在,導(dǎo)致鎖死,不是glusterfs寫入權(quán)限問題。
設(shè)置gluster volume heal vol01 enable,讓其數(shù)據(jù)同步。
重啟volume或者glusterd服務(wù)。
或者,刪除所有g(shù)luster存儲節(jié)點下的hub-db-dir目錄下的jupyterhub.sqllite文件,再刪除hub pod,使其自動重建文件。
一般上面幾步后,能夠恢復(fù)。
參考:GlusterFS: 訪問權(quán)限設(shè)置
查看hub的日志,顯示SQLlite訪問出錯,將其從宿主存儲目錄下移除,訪問hub service失敗。
刪除hub pod后,service的proxy-public也無法連接。
強制刪除JupyterHub的hub和Proxy的Pod運行實例。
強制刪除CoreDNS的Pod運行實例,Kubernetes自動啟動新實例后,運行恢復(fù)。
有時候是glusterfs設(shè)置權(quán)限問題,setfacl/getfacl進行設(shè)置。
進一步檢查,發(fā)現(xiàn)可能是GlusterFS的volume寫入問題,不同步引起的。
其它:
出現(xiàn)整個集群無法訪問,kubectl get node失敗,kubectl version時apiserver訪問失敗。
查看其中一個節(jié)點route,再次出現(xiàn)神秘的podsxx 255.255.255.255路由記錄,route del刪除記錄失敗。
運行sudo netplan apply后,路由記錄消失,節(jié)點恢復(fù)可訪問。
以上是“Kubernetes 1.15.0如何快速升級”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。