您好,登錄后才能下訂單哦!
本篇文章為大家展示了基于OAM和kfserving如何實(shí)現(xiàn)通用化云原生模型應(yīng)用部署,內(nèi)容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細(xì)介紹希望你能有所收獲。
kfserving 是 kubeflow 一個用于構(gòu)建部署標(biāo)準(zhǔn)化的算法模型 serverless 組件,但其和 knative 深度綁定,對傳輸鏈路進(jìn)行了隱藏,如封裝istio,這樣復(fù)雜的結(jié)構(gòu)不利于生產(chǎn)環(huán)境直接使用,這里通過 kubevela 實(shí)現(xiàn)的 OAM 將 serverless 流程重新進(jìn)行簡單的標(biāo)準(zhǔn)化封裝,以實(shí)現(xiàn)一個簡單的算法模型 serverless。
如何為算法團(tuán)隊(duì)提供高效的工程化上云支持是云原生時代一個很重要的也很有意義的課題,現(xiàn)在開源社區(qū)比較完善的應(yīng)該是 Kubeflow —— 一系列 ML 實(shí)驗(yàn)部署環(huán)境工具的集合,不過整體來看比較笨重,不適合小團(tuán)隊(duì)生產(chǎn)環(huán)境快速落地,這里基于 kubevela 和 kfserving 實(shí)現(xiàn)一個算法標(biāo)準(zhǔn)化模型的例子,供參考。
項(xiàng)目地址:https://github.com/shikanon/vela-example/tree/main/example/sklearnserver
通過 kubevela 提供了三種對象 mpserver, hpa, httproute。
mpserver 主要負(fù)責(zé)生成 deployment 和 service 資源,是程序運(yùn)行的主體
httroute 主要負(fù)責(zé)生成對外暴露的端口,訪問 url
hpa 主要保證服務(wù)的可擴(kuò)展性
由于使用到vela
,所以需要先下載vela
客戶端
案例放在 exmaple/sklearnserver
下面。
本地鏡像編譯并運(yùn)行:
# 編譯 docker build -t swr.cn-north-4.myhuaweicloud.com/hw-zt-k8s-images/sklearnserver:demo-iris -f sklearn.Dockerfile .
上傳到華為云鏡像倉庫
docker login swr.cn-north-4.myhuaweicloud.com docker push swr.cn-north-4.myhuaweicloud.com/hw-zt-k8s-images/sklearnserver:demo-iris
創(chuàng)建一個demo-iris-01.yaml
的應(yīng)用文件
name: demo-iris-01 services: demo-iris: type: mpserver image: swr.cn-north-4.myhuaweicloud.com/hw-zt-k8s-images/sklearnserver:demo-iris ports: [8080] cpu: "200m" memory: "250Mi" httproute: gateways: ["external-gateway"] hosts: ["demo-iris.rcmd.testing.mpengine"] servernamespace: rcmd serverport: 8080 hpa: min: 1 max: 1 cpuPercent: 60
因?yàn)檫@里使用的是rcmd
命名空間,在創(chuàng)建的時候需要切換,可以通過vela dashboard 通過可視化界面創(chuàng)建一個 rcmd
命名空間的環(huán)境:
vela dashboard
成功后可以通過vela env
查看:
$ vela env ls NAME CURRENT NAMESPACE EMAIL DOMAIN default default rcmd * rcmd
在云原生環(huán)境運(yùn)行應(yīng)用
$ vela up -f demo-iris-01.yaml Parsing vela appfile ... Load Template ... Rendering configs for service (demo-iris)... Writing deploy config to (.vela/deploy.yaml) Applying application ... Checking if app has been deployed... App has not been deployed, creating a new deployment... ? App has been deployed ???????????? Port forward: vela port-forward demo-iris-01 SSH: vela exec demo-iris-01 Logging: vela logs demo-iris-01 App status: vela status demo-iris-01 Service status: vela status demo-iris-01 --svc demo-iris
部署好后可以測試:
$ curl -i -d '{"instances":[[5.1, 3.5, 1.4, 0.2]]}' -H "Content-Type: application/json" -X POST demo-iris.rcmd.testing.mpengine:8000/v1/models/model:predict {"predictions": [0]}
kfserver 提供了多種常用框架的 server,比如 sklearn, lgb, xgb, pytorch 等多種服務(wù)的 server 框架, kfserver 基于 tornado 框架進(jìn)行開發(fā),其提供了 模型加載,接口健康檢測,預(yù)測及 參考解釋等多個抽象接口,詳細(xì)見kfserving/kfserving/kfserver.py
:
... def create_application(self): return tornado.web.Application([ # Server Liveness API returns 200 if server is alive. (r"/", LivenessHandler), (r"/v2/health/live", LivenessHandler), (r"/v1/models", ListHandler, dict(models=self.registered_models)), (r"/v2/models", ListHandler, dict(models=self.registered_models)), # Model Health API returns 200 if model is ready to serve. (r"/v1/models/([a-zA-Z0-9_-]+)", HealthHandler, dict(models=self.registered_models)), (r"/v2/models/([a-zA-Z0-9_-]+)/status", HealthHandler, dict(models=self.registered_models)), (r"/v1/models/([a-zA-Z0-9_-]+):predict", PredictHandler, dict(models=self.registered_models)), (r"/v2/models/([a-zA-Z0-9_-]+)/infer", PredictHandler, dict(models=self.registered_models)), (r"/v1/models/([a-zA-Z0-9_-]+):explain", ExplainHandler, dict(models=self.registered_models)), (r"/v2/models/([a-zA-Z0-9_-]+)/explain", ExplainHandler, dict(models=self.registered_models)), (r"/v2/repository/models/([a-zA-Z0-9_-]+)/load", LoadHandler, dict(models=self.registered_models)), (r"/v2/repository/models/([a-zA-Z0-9_-]+)/unload", UnloadHandler, dict(models=self.registered_models)), ]) ...
這里我們使用的 sklearn server 的案例主要實(shí)現(xiàn)了 predict
接口:
import kfserving import joblib import numpy as np import os from typing import Dict MODEL_BASENAME = "model" MODEL_EXTENSIONS = [".joblib", ".pkl", ".pickle"] class SKLearnModel(kfserving.KFModel): # pylint:disable=c-extension-no-member def __init__(self, name: str, model_dir: str): super().__init__(name) self.name = name self.model_dir = model_dir self.ready = False def load(self) -> bool: model_path = kfserving.Storage.download(self.model_dir) paths = [os.path.join(model_path, MODEL_BASENAME + model_extension) for model_extension in MODEL_EXTENSIONS] for path in paths: if os.path.exists(path): self._model = joblib.load(path) self.ready = True break return self.ready def predict(self, request: Dict) -> Dict: instances = request["instances"] try: inputs = np.array(instances) except Exception as e: raise Exception( "Failed to initialize NumPy array from inputs: %s, %s" % (e, instances)) try: result = self._model.predict(inputs).tolist() return {"predictions": result} except Exception as e: raise Exception("Failed to predict %s" % e)
上述內(nèi)容就是基于OAM和kfserving如何實(shí)現(xiàn)通用化云原生模型應(yīng)用部署,你們學(xué)到知識或技能了嗎?如果還想學(xué)到更多技能或者豐富自己的知識儲備,歡迎關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。