溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

我們?yōu)槭裁磿h除不了集群的 Namespace?

發(fā)布時間:2020-08-08 10:43:23 來源:網(wǎng)絡(luò) 閱讀:199 作者:阿里系統(tǒng)軟件技術(shù) 欄目:云計算

作者 | 聲東? 阿里云售后技術(shù)專家

導(dǎo)讀:阿里云售后技術(shù)團隊的同學(xué),每天都在處理各式各樣千奇百怪的線上問題。常見的有網(wǎng)絡(luò)連接失敗、服務(wù)器宕機、性能不達標(biāo)及請求響應(yīng)慢等。但如果要評選的話,什么問題看起來微不足道事實上卻讓人絞盡腦汁,我相信肯定是“刪不掉”的問題,比如文件刪不掉、進程結(jié)束不掉、驅(qū)動卸載不了等。這樣的問題就像冰山,隱藏在它們背后的復(fù)雜邏輯,往往超過我們的預(yù)想。

背景

今天我們討論的這個問題,跟 K8s 集群的 Namespace 有關(guān)。Namespace 是 K8s 集群資源的“收納”機制。我們可以把相關(guān)的資源“收納”到同一個 Namespace 里,以避免不相關(guān)資源之間不必要的影響。

Namespace 本身也是一種資源。通過集群 API Server 入口,我們可以新建 Namespace,而對于不再使用的 Namespace,我們需要清理掉。Namespace 的 Controller 會通過 API Server,監(jiān)視集群中 Namespace 的變化,然后根據(jù)變化來執(zhí)行預(yù)先定義的動作。

我們?yōu)槭裁磿h除不了集群的 Namespace?

有時候,我們會遇到下圖中的問題,即 Namespace 的狀態(tài)被標(biāo)記成了 "Terminating",但卻沒有辦法被完全刪除。

我們?yōu)槭裁磿h除不了集群的 Namespace?

從集群入口開始

因為刪除操作是通過集群 API Server 來執(zhí)行的,所以我們要分析 API Server 的行為。跟大多數(shù)集群組件類似,API Server 提供了不同級別的日志輸出。為了理解 API Server 的行為,我們將日志級別調(diào)整到最高級。然后,通過創(chuàng)建刪除 tobedeletedb 這個 Namespace 來重現(xiàn)問題。

但可惜的是,API Server 并沒有輸出太多和這個問題有關(guān)的日志。

相關(guān)的日志,可以分為兩部分:

  • 一部分是 Namespace 被刪除的記錄,記錄顯示客戶端工具是 kubectl,以及發(fā)起操作的源 IP 地址是 192.168.0.41,這符合預(yù)期;
  • 另外一部分是 Kube Controller Manager 在重復(fù)地獲取這個 Namespace 的信息。

我們?yōu)槭裁磿h除不了集群的 Namespace?

Kube Controller Manager 實現(xiàn)了集群中大多數(shù)的 Controller,它在重復(fù)獲取 tobedeletedb 的信息,基本上可以判斷,是 Namespace 的 Controller 在獲取這個 Namespace 的信息。

Controller 在做什么?

和上一節(jié)類似,我們通過開啟 Kube Controller Manager 最高級別日志,來研究這個組件的行為。在 Kube Controller Manager 的日志里,可以看到 Namespace 的 Controller 在不斷地嘗試一個失敗了的操作,就是清理 tobedeletedb 這個 Namespace 里“收納”的資源。

我們?yōu)槭裁磿h除不了集群的 Namespace?

怎么樣刪除“收納盒”里的資源?

這里我們需要理解一點,就是 Namespace 作為資源的“收納盒”,其實是邏輯意義上的概念。它并不像現(xiàn)實中的收納工具,可以把小的物件收納其中。Namespace 的“收納”實際上是一種映射關(guān)系。

我們?yōu)槭裁磿h除不了集群的 Namespace?

這一點之所以重要,是因為它直接決定了,刪除 Namespace 內(nèi)部資源的方法。如果是物理意義上的“收納”,那我們只需要刪除“收納盒”,里邊的資源就一并被刪除了。而對于邏輯意義上的關(guān)系,我們則需要羅列所有資源,并刪除那些指向需要刪除的 Namespace 的資源。

API、Group、Version

怎么樣羅列集群中的所有資源呢?這個問題需要從集群 API 的組織方式說起。K8s 集群的 API 不是鐵板一塊的,它是用分組和版本來組織的。這樣做的好處顯而易見,就是不同分組的 API 可以獨立迭代,互不影響。常見的分組如 apps,它有 v1、v1beta1 和 v1beta2 三個版本。完整的分組/版本列表,可以使用 kubectl api-versions 命令看到。

我們?yōu)槭裁磿h除不了集群的 Namespace?

我們創(chuàng)建的每一個資源,都必然屬于某一個 API 分組/版本。以下邊 Ingress 為例,我們指定 Ingress 資源的分組/版本為 networking.k8s.io/v1beta1。

kind: Ingress
metadata:
  name: test-ingress
spec:
  rules:
  - http:
      paths:
      - path: /testpath
        backend:
          serviceName: test
          servicePort: 80

用一個簡單的示意圖來總結(jié) API 分組和版本。

我們?yōu)槭裁磿h除不了集群的 Namespace?

實際上,集群有很多 API 分組/版本,每個 API 分組/版本支持特定的資源類型。我們通過 yaml 編排資源時,需要指定資源類型 kind,以及 API 分組/版本 apiVersion。而要列出資源,我們需要獲取 API 分組/版本的列表。

Controller 為什么不能刪除 Namespace 里的資源

理解了 API 分組/版本的概念之后,再回頭看 Kube Controller Manager 的日志,就會豁然開朗。顯然 Namespace 的 Controller 在嘗試獲取 API 分組/版本列表,當(dāng)遇到 metrics.k8s.io/v1beta1 的時候,查詢失敗了。并且查詢失敗的原因是 "the server is currently unable to handle the request"。

再次回到集群入口

在上一節(jié)中,我們發(fā)現(xiàn) Kube Controller Manager 在獲取 metrics.k8s.io/v1beta1 這個 API 分組/版本的時候失敗了。而這個查詢請求,顯然是發(fā)給 API Server 的。所以我們回到 API Server 日志,分析 metrics.k8s.io/v1beta1 相關(guān)的記錄。在相同的時間點,我們看到 API Server 也報了同樣的錯誤 "the server is currently unable to handle the request"。

我們?yōu)槭裁磿h除不了集群的 Namespace?

顯然這里有一個矛盾,就是 API Server 明顯在正常工作,為什么在獲取 metrics.k8s.io/v1beta1 這個 API 分組版本的時候,會返回 Server 不可用呢?為了回答這個問題,我們需要理解一下 API Server 的“外掛”機制。

我們?yōu)槭裁磿h除不了集群的 Namespace?

集群 API Server 有擴展自己的機制,開發(fā)者可以利用這個機制,來實現(xiàn) API Server 的“外掛”。這個“外掛”的主要功能,就是實現(xiàn)新的 API 分組/版本。API Server 作為代理,會把相應(yīng)的 API 調(diào)用,轉(zhuǎn)發(fā)給自己的“外掛”。

以 Metrics Server 為例,它實現(xiàn)了 metrics.k8s.io/v1beta1 這個 API 分組/版本。所有針對這個分組/版本的調(diào)用,都會被轉(zhuǎn)發(fā)到 Metrics Server。如下圖,Metrics Server 的實現(xiàn),主要用到一個服務(wù)和一個 pod。

我們?yōu)槭裁磿h除不了集群的 Namespace?

而上圖中最后的 apiservice,則是把“外掛”和 API Server 聯(lián)系起來的機制。下圖可以看到這個 apiservice 詳細定義。它包括 API 分組/版本,以及實現(xiàn)了 Metrics Server 的服務(wù)名。有了這些信息,API Server 就能把針對 metrics.k8s.io/v1beta1 的調(diào)用,轉(zhuǎn)發(fā)給 Metrics Server。

我們?yōu)槭裁磿h除不了集群的 Namespace?

節(jié)點與Pod之間的通信

經(jīng)過簡單的測試,我們發(fā)現(xiàn),這個問題實際上是 API server 和 metrics server pod 之間的通信問題。在阿里云 K8s 集群環(huán)境里,API Server 使用的是主機網(wǎng)絡(luò),即 ECS 的網(wǎng)絡(luò),而 Metrics Server 使用的是 Pod 網(wǎng)絡(luò)。這兩者之間的通信,依賴于 VPC 路由表的轉(zhuǎn)發(fā)。

我們?yōu)槭裁磿h除不了集群的 Namespace?

以上圖為例,如果 API Server 運行在 Node A 上,那它的 IP 地址就是 192.168.0.193。假設(shè) Metrics Server 的 IP 是 172.16.1.12,那么從 API Server 到 Metrics Server 的網(wǎng)絡(luò)連接,必須要通過 VPC 路由表第二條路由規(guī)則的轉(zhuǎn)發(fā)。

檢查集群 VPC 路由表,發(fā)現(xiàn)指向 Metrics Server 所在節(jié)點的路由表項缺失,所以 API server 和 Metrics Server 之間的通信出了問題。

Route Controller 為什么不工作?

為了維持集群 VPC 路由表項的正確性,阿里云在 Cloud Controller Manager 內(nèi)部實現(xiàn)了 Route Controller。這個 Controller 在時刻監(jiān)聽著集群節(jié)點狀態(tài),以及 VPC 路由表狀態(tài)。當(dāng)發(fā)現(xiàn)路由表項缺失的時候,它會自動把缺失的路由表項填寫回去。

現(xiàn)在的情況,顯然和預(yù)期不一致,Route Controller 顯然沒有正常工作。這個可以通過查看 Cloud Controller Manager 日志來確認。在日志中,我們發(fā)現(xiàn),Route Controller 在使用集群 VPC id 去查找 VPC 實例的時候,沒有辦法獲取到這個實例的信息。

我們?yōu)槭裁磿h除不了集群的 Namespace?

但是集群還在,ECS 還在,所以 VPC 不可能不在了。這一點我們可以通過 VPC id 在 VPC 控制臺確認。那下邊的問題,就是為什么 Cloud Controller Manager 沒有辦法獲取到這個 VPC 的信息呢?

集群節(jié)點訪問云資源

Cloud Controller Manager 獲取 VPC 信息,是通過阿里云開放 API 來實現(xiàn)的。這基本上等于從云上一臺 ECS 內(nèi)部,去獲取一個 VPC 實例的信息,而這需要 ECS 有足夠的權(quán)限。目前的常規(guī)做法是,給 ECS 服務(wù)器授予 RAM 角色,同時給對應(yīng)的 RAM 角色綁定相應(yīng)的角色授權(quán)。

我們?yōu)槭裁磿h除不了集群的 Namespace?

如果集群組件,以其所在節(jié)點的身份,不能獲取云資源的信息,那基本上有兩種可能性。一是 ECS 沒有綁定正確的 RAM 角色;二是 RAM 角色綁定的 RAM 角色授權(quán)沒有定義正確的授權(quán)規(guī)則。檢查節(jié)點的 RAM 角色,以及 RAM 角色所管理的授權(quán),我們發(fā)現(xiàn),針對 vpc 的授權(quán)策略被改掉了。

我們?yōu)槭裁磿h除不了集群的 Namespace?

當(dāng)我們把 Effect 修改成 Allow 之后,沒多久,所有的 Terminating 狀態(tài)的 namespace 全部都消失了。

我們?yōu)槭裁磿h除不了集群的 Namespace?

問題大圖

總體來說,這個問題與 K8s 集群的 6 個組件有關(guān)系,分別是 API Server 及其擴展 Metrics Server,Namespace Controller 和 Route Controller,以及 VPC 路由表和 RAM 角色授權(quán)。

我們?yōu)槭裁磿h除不了集群的 Namespace?

通過分析前三個組件的行為,我們定位到,集群網(wǎng)絡(luò)問題導(dǎo)致了 API Server 無法連接到 Metrics Server;通過排查后三個組件,我們發(fā)現(xiàn)導(dǎo)致問題的根本原因是 VPC 路由表被刪除且 RAM 角色授權(quán)策略被改動。

后記

K8s 集群 Namespace 刪除不掉的問題,是線上比較常見的一個問題。這個問題看起來無關(guān)痛癢,但實際上不僅復(fù)雜,而且意味著集群重要功能的缺失。這篇文章全面分析了一個這樣的問題,其中的排查方法和原理,希望對大家排查類似問題有一定的幫助。

“阿里巴巴云原生關(guān)注微服務(wù)、Serverless、容器、Service Mesh 等技術(shù)領(lǐng)域、聚焦云原生流行技術(shù)趨勢、云原生大規(guī)模的落地實踐,做最懂云原生開發(fā)者的技術(shù)圈?!?/p>

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI