您好,登錄后才能下訂單哦!
本篇文章給大家分享的是有關怎么在Kubernetes上大規(guī)模運行CI/CD,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
在云原生領域中,Kubernetes累積了大量用例。它能夠在云中部署應用容器、安排批處理job、處理工作負載以及執(zhí)行逐步升級。Kubernetes使用高效的編排算法來處理這些操作,即便是大規(guī)模集群這些算法依舊表現(xiàn)良好。
此外,Kubernetes主要用例之一是運行持續(xù)集成或持續(xù)交付(CI/CD)流水線。也就是說,我們部署一個CI/CD容器的唯一實例,該實例將監(jiān)控代碼版本控制系統(tǒng)。所以,每當我們推送到該倉庫時,該容器都會運行流水線步驟。其最終目標是達到一個“true or false”的狀態(tài)。True即在集成階段commit通過了各種測試,F(xiàn)alse即未通過測試。
除了以上描述的CI流水線之外,在CI測試通過之后,另一個流水線可以接管余下的過程,以處理發(fā)布過程的CD部分。在這一階段,流水線將嘗試將應用程序容器交付到生產(chǎn)中。
需要明白的是,這些操作是按需運行或者是由各種行為(如代碼check-in、測試觸發(fā)器、流程中上一步的結果等)自動觸發(fā)的。因此我們需要一種機制來增加單個節(jié)點以運行那些流水線的步驟,并在不需要它們時將其淘汰。這種管理不可變基礎架構的方法有助于我們節(jié)省資源并降低成本。
當然,最關鍵的機制就是Kubernetes,它具有聲明式的結構和可定制性,因此可以讓你在任何場景下高效地調(diào)度job、節(jié)點以及pod。
適用于Kubernetes的CI/CD平臺
Kubernetes是一個運行CI/CD的理想平臺,因為它擁有許多特性使得在上面運行CI/CD更為簡單。那么,到底有多少CI/CD的平臺可以在Kubernetes上運行呢?可以這么說,只要它們能夠被打包為一個容器,Kubernetes都能夠運行它們。以下是幾個最為流行的CI/CD平臺:
Jenkins:Jenkins是最為流行也最為穩(wěn)定的CI/CD平臺。在世界范圍內(nèi)有數(shù)以千計的企業(yè)都在使用它,因為它擁有強大的生態(tài)和可擴展性。如果你打算要在Kubernetes上使用它,非常建議你安裝它的官方插件。JenkinsX是專門為云原生領域設計的Jenkins版本。它與Kubernetes更加兼容,并且提供了更好的集成功能,如GitOps、自動CI/CD和預覽環(huán)境。
Spinnaker:Spinnaker是一個可擴展的多云部署的CD平臺,得到了Netflix的支持。使用相關的Helm Chart即可安裝它。
https://github.com/helm/charts/tree/master/stable/spinnaker
Drone:這是有多種功能的通用云原生CD平臺。可以使用關聯(lián)的Runner在Kubernetes中運行它。
GoCD:Thoughtworks的另一個CI/CD平臺,提供了適用于云原生部署的各種工作流程和功能。它可以在Kubernetes中作為Helm Chart運行。
此外,還有一些與Kubernetes緊密合作的云服務,并提供諸如CircleCI和Travis的CI/CD流水線。如果你不打算托管CI/CD平臺,那么這些也十分有用。
現(xiàn)在,我們來看看如何在Kubernetes集群上安裝Jenkins。
首先,我們需要安裝Helm,它是Kubernetes的軟件包管理器:
$ curl https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3 > get_helm.sh $ chmod 700 get_helm.sh $ ./get_helm.sh -v v2.15.0
同樣,我們還需要安裝Tiller,以讓Helm正常運行:
$ kubectl -n kube-system create serviceaccount tiller serviceaccount/tiller created ~/.kube $ kubectl create clusterrolebinding tiller --clusterrole cluster-admin --serviceaccount=kube-system:tiller clusterrolebinding.rbac.authorization.k8s.io/tiller created ~/.kube $ helm init --service-account tiller $HELM_HOME has been configured at /Users/itspare/.helm.
完成這些步驟之后,我們需要運行檢查命令,以查看deployment的配置值:
$ helm inspect values stable/jenkins > values.yml
仔細檢查配置值并在需要的時候進行更改。然后安裝Chart:
$ helm install stable/jenkins --tls \ --name jenkins \ --namespace jenkins
安裝過程中會有一些關于下一步操作的說明:
注意:
運行以下命令獲取”admin“用戶的密碼:
printf $(kubectl get secret --namespace default my-jenkins -o jsonpath="{.data.jenkins-admin-password}" | base64 --decode);echo
在相同的shell中獲取Jenkins URL以訪問這些命令:
export POD_NAME=$(kubectl get pods --namespace default -l "app.kubernetes.io/component=jenkins-master" -l "app.kubernetes.io/instance=my-jenkins" -o jsonpath="{.items[0].metadata.name}") echo http://127.0.0.1:8080 kubectl --namespace default port-forward $POD_NAME 8080:8080
遵循這些步驟,它們將在http://127.0.0.1:8080 啟動代理服務器。
到那里輸入你的用戶名和密碼。你將會擁有自己的Jenkins 服務器:
不過,請記住,還有許多配置選項尚未修改,你可以訪問chart文檔以了解更多信息:
https://github.com/helm/charts/tree/master/stable/jenkins
在默認情況下,服務器會安裝好最基本的插件,如Git和Kubernetes-Jenkins,我們可以根據(jù)自己的需要安裝其他插件。
總而言之,使用Helm安裝Jenkins十分輕松。
既然我們已經(jīng)大致了解CI/CD如何在Kubernetes上運行的,那么我們來看一個在Kubernetes中部署高度可擴展的Jenkins部署的示例用例。人們通常用它(進行了少量修改)來處理基礎結構的CI/CD,開始吧!
雖然官方Jenkins鏡像很適合入門,但它需要的配置超出了我們的期望。許多用戶會選擇一個固定的發(fā)行版,如my-bloody-jenkins(https://github.com/odavid/my-bloody-jenkins ),它提供了一個較為完整的預安裝插件以及配置選項。在可用的插件中,我們使用saml插件、SonarQubeRunner、Maven和Gradle。
它能夠使用以下命令通過Helm Chart安裝:
$ helm repo add odavid https://odavid.github.io/k8s-helm-charts $ helm install odavid/my-bloody-jenkins
我們選擇使用以下Dockerfile部署自定義鏡像:
FROM odavid/my-bloody-jenkins:2.190.2-161 USER jenkins COPY plugins.txt /usr/share/jenkins/ref/ RUN /usr/local/bin/install-plugins.sh < /usr/share/jenkins/ref/plugins.txt USER root
其中plugins.txt文件是我們要預安裝到鏡像中的其他插件列表:
build-monitor-plugin xcode-plugin rich-text-publisher-plugin jacoco scoverage dependency-check-jenkins-plugin greenballs shiningpanda pyenv-pipeline s3 pipeline-aws appcenter multiple-scms Testng-plugin
然后,只要dockerfile發(fā)生更改,我們就使用此通用Jenkinsfile來構建master:
#!/usr/bin/env groovy node('generic') { try { def dockerTag, jenkins_master stage('Checkout') { checkout([ $class: 'GitSCM', branches: scm.branches, doGenerateSubmoduleConfigurations: scm.doGenerateSubmoduleConfigurations, extensions: [[$class: 'CloneOption', noTags: false, shallow: false, depth: 0, reference: '']], userRemoteConfigs: scm.userRemoteConfigs, ]) def version = sh(returnStdout: true, script: "git describe --tags `git rev-list --tags --max-count=1`").trim() def tag = sh(returnStdout: true, script: "git rev-parse --short HEAD").trim() dockerTag = version + "-" + tag println("Tag: " + tag + " Version: " + version) } stage('Build Master') { jenkins_master = docker.build("jenkins-master", "--network=host .") } stage('Push images') { docker.withRegistry("https://$env.DOCKER_REGISTRY", 'ecr:eu-west-2:jenkins-aws-credentials') { jenkins_master.push("${dockerTag}") } } if(env.BRANCH_NAME == 'master') { stage('Push Latest images') { docker.withRegistry("https://$env.DOCKER_REGISTRY", 'ecr:eu-west-2:jenkins-aws-credentials') { jenkins_master.push("latest") } } stage('Deploy to K8s cluster') { withKubeConfig([credentialsId: 'dev-tools-eks-jenkins-secret', serverUrl: env.TOOLS_EKS_URL]) { sh "kubectl set image statefulset jenkins jenkins=$env.DOCKER_REGISTRY/jenkins-master:${dockerTag}" } } } currentBuild.result = 'SUCCESS' } catch(e) { currentBuild.result = 'FAILURE' throw e } }
我們所使用的專用集群由AWS中的一些大中型實例組成,用于Jenkins jobs。接下來,我們進入下一個部分。
為了擴展我們的一些Jenkins slaves,我們使用Pod模板并將標簽分配給特定的agent。因此在我們的Jenkinsfiles中,我們可以為jobs引用它們。例如,我們有一些需要構建安卓應用程序的agent。因此,我們引用以下標簽:
pipeline { agent { label "android" } …
并且將使用特定于安卓的pod模板。我們使用這一Dockerfile,例如:
FROM dkr.ecr.eu-west-2.amazonaws.com/jenkins-jnlp-slave:latest RUN apt-get update && apt-get install -y -f --no-install-recommends xmlstarlet ARG GULP_VERSION=4.0.0 ARG CORDOVA_VERSION=8.0.0 # SDK version and build-tools version should be different ENV SDK_VERSION 25.2.3 ENV BUILD_TOOLS_VERSION 26.0.2 ENV SDK_CHECKSUM 1b35bcb94e9a686dff6460c8bca903aa0281c6696001067f34ec00093145b560 ENV ANDROID_HOME /opt/android-sdk ENV SDK_UPDATE tools,platform-tools,build-tools-25.0.2,android-25,android-24,android-23,android-22,android-21,sys-img-armeabi-v7a-android-26,sys-img-x86-android-23 ENV LD_LIBRARY_PATH ${ANDROID_HOME}/tools/lib64/qt:${ANDROID_HOME}/tools/lib/libQt5:$LD_LIBRARY_PATH/ ENV PATH ${PATH}:${ANDROID_HOME}/tools:${ANDROID_HOME}/platform-tools RUN curl -SLO "https://dl.google.com/android/repository/tools_r${SDK_VERSION}-linux.zip" \ && echo "${SDK_CHECKSUM} tools_r${SDK_VERSION}-linux.zip" | sha256sum -c - \ && mkdir -p "${ANDROID_HOME}" \ && unzip -qq "tools_r${SDK_VERSION}-linux.zip" -d "${ANDROID_HOME}" \ && rm -Rf "tools_r${SDK_VERSION}-linux.zip" \ && echo y | ${ANDROID_HOME}/tools/android update sdk --filter ${SDK_UPDATE} --all --no-ui --force \ && mkdir -p ${ANDROID_HOME}/tools/keymaps \ && touch ${ANDROID_HOME}/tools/keymaps/en-us \ && yes | ${ANDROID_HOME}/tools/bin/sdkmanager --update RUN chmod -R 777 ${ANDROID_HOME} && chown -R jenkins:jenkins ${ANDROID_HOME}
我們還使用了Jenkinsfile,該文件與上一個文件類似,用于構建master。每當我們對Dockerfile進行更改時,agent都會重建鏡像。這為我們的CI/CD基礎架構提供了極大的靈活性。
盡管我們?yōu)閐eployment分配了特定數(shù)量的節(jié)點,但我們還可以通過啟用cluster autoscaling,來完成更多的事情。這意味著在工作負載增加和峰值的情況下,我們可以增加額外的節(jié)點來處理job。目前,如果我們有固定數(shù)量的節(jié)點,那么我們只能處理固定數(shù)量的job?;谝韵率聦?,我們可以進行粗略地估計:每個slave通常分配500ms CPU和256MB內(nèi)存,并且設置一個很高的并發(fā)。這根本不現(xiàn)實。
舉個例子,當你的版本被大幅削減并且需要部署大量微服務時,可能會發(fā)生上述情況。然后,大量的job堆積在流水線,造成嚴重的延誤。
在這種情況下,我們可以增加該階段的節(jié)點數(shù)。例如,我們可以添加額外的VM實例,然后在過程結束時將其刪除。
我們可以在命令行中使用自動伸縮選項來配置“Vertical”或“集群”自動伸縮選項。但是,此方法需要仔細計劃和配置,因為有時會發(fā)生以下情況:
越來越多的job達到平穩(wěn)階段
Autoscaler增加新的節(jié)點,但是需要10分鐘來進行部署和分配
舊的job已經(jīng)完成任務,新的job將填補空白,進而減少了對新節(jié)點的需求
新節(jié)點可用,但需要X分鐘保持穩(wěn)定且未利用,X由–scale-down-unneeded-time標志定義
同樣的事情每天發(fā)生很多次
在這種情況下,最好是根據(jù)我們的特定需求進行配置,或者只是增加當天的節(jié)點數(shù),并在流程結束后將其還原。所有這些都與尋找最佳方法來利用所有資源并使成本最小化有關。
在任何情況下,我們都應該有一個可伸縮且易于使用的Jenkins集群。對于每個job,都會創(chuàng)建一個pod來運行特定的流水線,并在完成后將其銷毀。
現(xiàn)在我們已經(jīng)了解了Kubernetes有哪些CI/CD平臺以及如何在你的集群上安裝一個平臺。接下來,我們將討論一些大規(guī)模運行它們的方法。
首先,選擇Kubernetes發(fā)行版是我們需要考慮的最關鍵因素之一。找到最合適的解決方案才能夠進行下一步。
其次,選擇合適的Docker鏡像倉庫和應用程序包管理器同樣重要。我們需要尋找可以按需快速檢索的安全可靠的鏡像管理。至于軟件包管理器,Helm是一個不錯的選擇,因為它可以發(fā)現(xiàn)、共享和使用為Kubernetes構建的軟件。
第三,使用現(xiàn)代集成流程,如GitOps和ChatOps,在易用性和可預測性方面提供了顯著優(yōu)勢。將Git用作單一數(shù)據(jù)源,使我們可以運行“通過拉取請求進行操作”,從而簡化了對基礎架構和應用程序的部署控制。使用諸如企業(yè)微信或釘釘之類的團隊協(xié)作工作來觸發(fā)CI/CD流水線的自動化任務,有助于我們消除重復勞動并簡化集成。
總體而言,如果我們想更深入地了解,你可以自定義或開發(fā)自己的K8S Operator,與K8S API配合更緊密。使用自定義operator的好處很多,因為它們可以建立更好的自動化體驗。
以上就是怎么在Kubernetes上大規(guī)模運行CI/CD,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降?。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業(yè)資訊頻道。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。