溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題

發(fā)布時間:2020-11-20 16:34:21 來源:億速云 閱讀:2785 作者:小新 欄目:系統(tǒng)運(yùn)維

這篇文章給大家分享的是有關(guān)k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

問題

使用kubectl get nodes查看已加入的節(jié)點(diǎn)時,出現(xiàn)了Status為NotReady的情況。

root@master1:~# kubectl get nodes
NAME      STATUS      ROLES    AGE    VERSION
master1   NotReady    master   152m   v1.18.1
worker1   NotReady       94m    v1.18.1

這種情況是因?yàn)橛心承╆P(guān)鍵的 pod 沒有運(yùn)行起來,首先使用如下命令來看一下kube-system的 pod 狀態(tài):

kubectl get pod -n kube-system
NAME                              READY   STATUS             RESTARTS   AGE
coredns-bccdc95cf-792px           1/1     Pending            0          3h11m
coredns-bccdc95cf-bc76j           1/1     Pending            0          3h11m
etcd-master1                      1/1     Running            2          3h10m
kube-apiserver-master1            1/1     Running            2          3h11m
kube-controller-manager-master1   1/1     Running            2          3h10m
kube-flannel-ds-amd64-9trbq       0/1     ImagePullBackoff   0          133m
kube-flannel-ds-amd64-btt74       0/1     ImagePullBackoff   0          174m
kube-proxy-27zfk                  1/1     Pending            2          3h11m
kube-proxy-lx4gk                  1/1     Pending            0          133m
kube-scheduler-master1            1/1     Running            2          3h11m

如上,可以看到 pod kube-flannel 的狀態(tài)是ImagePullBackoff,意思是鏡像拉取失敗了,所以我們需要手動去拉取這個鏡像。這里可以看到某些 pod 運(yùn)行了兩個副本是因?yàn)槲矣袃蓚€節(jié)點(diǎn)存在了。

你也可以通過kubectl describe pod -n kube-system <服務(wù)名>來查看某個服務(wù)的詳細(xì)情況,如果 pod 存在問題的話,你在使用該命令后在輸出內(nèi)容的最下面看到一個[Event]條目,如下:

root@master1:~# kubectl describe pod kube-flannel-ds-amd64-9trbq -n kube-system

...

Events:
  Type     Reason                  Age                 From              Message
  ----     ------                  ----                ----              -------
  Normal   Killing                 29m                 kubelet, worker1  Stopping container kube-flannel
  Warning  FailedCreatePodSandBox  27m (x12 over 29m)  kubelet, worker1  Failed create pod sandbox: rpc error: code = Unknown desc = failed to create a sandbox for pod "kube-flannel-ds-amd64-9trbq": Error response from daemon: cgroup-parent for systemd cgroup should be a valid slice named as "xxx.slice"
  Normal   SandboxChanged          19m (x48 over 29m)  kubelet, worker1  Pod sandbox changed, it will be killed and re-created.
  Normal   Pulling                 42s                 kubelet, worker1  Pulling image "quay.io/coreos/flannel:v0.11.0-amd64"

手動拉取鏡像

flannel的鏡像可以使用如下命令拉到,如果你是其他鏡像沒拉到的話,百度一下就可以找到國內(nèi)的鏡像源地址了,這里記得把最后面的版本號修改成你自己的版本,具體的版本號可以用上面說的kubectl describe命令看到:

拉去鏡像:

docker pull quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64

等鏡像拉取完了之后需要把鏡像名改一下,改成 k8s 沒有拉到的那個鏡像名稱,我這里貼的鏡像名和版本和你的不一定一樣,注意修改:

docker tag quay-mirror.qiniu.com/coreos/flannel:v0.11.0-amd64 quay.io/coreos/flannel:v0.11.0-amd64

修改完了之后過幾分鐘 k8s 會自動重試,等一下就可以發(fā)現(xiàn)不僅flannel正常了,其他的 pod 狀態(tài)也都變成了Running,這時再看 node 狀態(tài)就可以發(fā)現(xiàn)問題解決了:

[kubeadm@server1 ~]$ kubectl get nodes
NAME      STATUS   ROLES    AGE    VERSION
server1   Ready    master   150m   v1.18.1
server2   Ready       150m   v1.18.1
server3   Ready       150m   v1.18.1
[kubeadm@server1 ~]$ 

k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題

感謝各位的閱讀!關(guān)于k8s如何解決節(jié)點(diǎn)狀態(tài)為 NotReady的部署問題就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI