您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關(guān)k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考。一起跟隨小編過來看看吧。
使用kubectl get nodes查看已加入的節(jié)點(diǎn)時(shí),出現(xiàn)了Status為NotReady的情況。
root@master1:~# kubectl get nodes NAME STATUS ROLES AGE VERSION master1 NotReady master 152m v1.18.1 worker1 NotReady94m v1.18.1
這種情況是因?yàn)橛心承╆P(guān)鍵的 pod 沒有運(yùn)行起來,首先使用如下命令來看一下kube-system的 pod 狀態(tài):
kubectl get pod -n kube-system
NAME READY STATUS RESTARTS AGE coredns-bccdc95cf-792px 1/1 Pending 0 3h11m coredns-bccdc95cf-bc76j 1/1 Pending 0 3h11m etcd-master1 1/1 Running 2 3h10m kube-apiserver-master1 1/1 Running 2 3h11m kube-controller-manager-master1 1/1 Running 2 3h10m kube-flannel-ds-amd64-9trbq 0/1 ImagePullBackoff 0 133m kube-flannel-ds-amd64-btt74 0/1 ImagePullBackoff 0 174m kube-proxy-27zfk 1/1 Pending 2 3h11m kube-proxy-lx4gk 1/1 Pending 0 133m kube-scheduler-master1 1/1 Running 2 3h11m
如上,可以看到 pod kube-flannel 的狀態(tài)是ImagePullBackoff,意思是鏡像拉取失敗了,所以我們需要手動(dòng)去拉取這個(gè)鏡像。這里可以看到某些 pod 運(yùn)行了兩個(gè)副本是因?yàn)槲矣袃蓚€(gè)節(jié)點(diǎn)存在了。
你也可以通過kubectl describe pod -n kube-system <服務(wù)名>來查看某個(gè)服務(wù)的詳細(xì)情況,如果 pod 存在問題的話,你在使用該命令后在輸出內(nèi)容的最下面看到一個(gè)[Event]條目,如下:
root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system ... Events: Type Reason Age From Message ---- ------ ---- ---- ------- Normal Killing 29m kubelet, worker1 Stopping container kube-flannel Warning FailedCreatePodSandBox 27m (x12 over 29m) kubelet, worker1 Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice" Normal SandboxChanged 19m (x48 over 29m) kubelet, worker1 Pod sandbox changed, it will be killed and re-created. Normal Pulling 42s kubelet, worker1 Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"
手動(dòng)拉取鏡像
flannel的鏡像可以使用如下命令拉到,如果你是其他鏡像沒拉到的話,百度一下就可以找到國內(nèi)的鏡像源地址了,這里記得把最后面的版本號(hào)修改成你自己的版本,具體的版本號(hào)可以用上面說的kubectl describe命令看到:
拉去鏡像:
docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64
等鏡像拉取完了之后需要把鏡像名改一下,改成 k8s 沒有拉到的那個(gè)鏡像名稱,我這里貼的鏡像名和版本和你的不一定一樣,注意修改:
docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64
修改完了之后過幾分鐘 k8s 會(huì)自動(dòng)重試,等一下就可以發(fā)現(xiàn)不僅flannel正常了,其他的 pod 狀態(tài)也都變成了Running,這時(shí)再看 node 狀態(tài)就可以發(fā)現(xiàn)問題解決了:
[kubeadm@server1 ~]$ kubectl get nodes NAME STATUS ROLES AGE VERSION server1 Ready master 150m v1.18.1 server2 Ready150m v1.18.1 server3 Ready 150m v1.18.1 [kubeadm@server1 ~]$
感謝各位的閱讀!關(guān)于k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。