溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么在Docker里運行Ceph

發(fā)布時間:2021-08-04 11:10:56 來源:億速云 閱讀:413 作者:chen 欄目:云計算

本篇內(nèi)容介紹了“怎么在Docker里運行Ceph”的有關(guān)知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

Ceph是一個完全開源的分布式存儲方案、網(wǎng)絡(luò)塊設(shè)備以及文件系統(tǒng),具有高穩(wěn)定性、高性能、高擴展性等特點,可應(yīng)對terabyte到exabyte級別的數(shù)據(jù)量。

通過使用創(chuàng)新性的調(diào)度算法(CRUSH)、主動存儲節(jié)點、以及peer-to-peer的gossip協(xié)議,Ceph規(guī)避了傳統(tǒng)集中控制和lookup table中的擴展性和可靠性問題。

Ceph目前在整個開源社區(qū)中極受推崇,已被廣泛應(yīng)用與虛擬化平臺(Proxmox)、云計算平臺(OpenStack、 CloudStack、OpenNebula)、容器技術(shù)(Docker)、以及大數(shù)據(jù)分析系統(tǒng)(Hadoop、作為HDFS的meted服務(wù)器)中。

我嘗試將Ceph運行在Docker中已經(jīng)快兩年了。直到今天我依然在做這些工作。最近我更是在 Docker 中部署 Ceph方面投入了不小的精力。

在展開技術(shù)細(xì)節(jié)前,我要特別感謝Sean C McCord對此工作的大力支持,當(dāng)年的開源ceph-docker項目也的確是基于Sean的早期工作。

現(xiàn)在讓我們具體看看如何將Ceph運行在Docker里!

原理

將Ceph運行在Docker中是一個比較有爭議的話題,不少人質(zhì)疑這樣操作的意義。雖然將檢測模塊、metadata服務(wù)器、以及RADOS gateway容器化都沒有太大問題,但對于OSD(object storage daemon),事情會變得很棘手。Ceph的OSD專門針對物理機器進(jìn)行優(yōu)化,與底層硬件有很多關(guān)聯(lián)。如果物理硬盤失效,OSD也無法運作,這給容器化的場景帶來了問題。

坦白地講,在過去某個時刻我也在想:

“我不知道自己為什么做這個,我只知道有人需要這個功能(當(dāng)然,他們可能也不知道為什么想要)。我只是覺得想進(jìn)行技術(shù)嘗試,那就試試看!”

當(dāng)然上述想法聽起來并不樂觀,但這確實是我當(dāng)時真實的想法。我的觀點隨后有了一些變化,我來解釋下為什么是值得的。希望這個解釋也能改變你的看法(我的解釋不僅僅是“Docker很酷,所以我們要把所有東西都跑在Docker里!”)。

不少開發(fā)者已經(jīng)花了很多時間將他們的軟件容器化。在這個過程中,他們也用過多種不同的工具來構(gòu)建和管理他們的環(huán)境。如果我看到有人用 Kubernetes 來作為管理工具也一點都不會吃驚。

有的人就喜歡將最新潮的技術(shù)應(yīng)用到生產(chǎn)當(dāng)中,否則他們會覺得工作很無聊。所以當(dāng)他們看到自己最喜歡的開源存儲方案也正在被容器化時,他們會因為這個順應(yīng)了“一切容器化”的方式而感到高興。

與傳統(tǒng)的 yum 或 apt-get不同,容器使得軟件的升級和回卷變得容易:我們可以通過 docker stop或者docker run來發(fā)布新的daemons版本。我們甚至可以在一臺物理機器上運行多個相互隔離的集群。這些都為開發(fā)過程提供了極大的便利。

項目

如上所述,所有的工作都基于Sean C McCord的早期貢獻(xiàn),我們后來都在圍繞他的工作做完善?,F(xiàn)在如果你用ceph-docker,你可以將每個單一的Ceph daemon運行在Ubuntu或CentOS上。

我們在Docker Hub里有很多的鏡像,我們使用Ceph的命名空間,因此我們的鏡像前綴都是ceph/<daemon>。我們使用了自動構(gòu)建,因此每次我們整合一個新的補丁就會觸發(fā)新的構(gòu)建,從而生成一個新的容器鏡像。

由于我們現(xiàn)在在從事代碼重構(gòu),你會看到有很多的鏡像版本。一直以來我們對每一個daemon構(gòu)建一個單獨的鏡像(我們整合這些補丁的時候都會這樣做)。所以監(jiān)測、OSD、mds和radosgw各自都有獨立的鏡像。這個并不是最理想的方案,因此我們在嘗試將所有組件都整合到一個叫做 daemon的鏡像中。

這個鏡像包含了所有的模塊,你可以在運行docker run的時候通過命令行選擇性地激活不同模塊。如果你想試用我們的鏡像,我們推薦使用ceph/daemon鏡像。下面我就舉例說明如何運行。

容器化Ceph

監(jiān)測

由于監(jiān)測模塊不能在NAT過的網(wǎng)絡(luò)中進(jìn)行通信,我們必須使用 --net=host來將主機的網(wǎng)絡(luò)層開放給容器:

$ sudo docker run -d --net=host \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-e MON_IP=192.168.0.20 \

-e CEPH_PUBLIC_NETWORK=192.168.0.0/24 \

ceph/daemon mon

你可以配置如下選項:

MON_IP是運行Docker的主機IP

MON_NAME是你監(jiān)測模塊的名稱(默認(rèn)為$(hostname))

CEPH_PUBLIC_NETWORK是運行Docker的主機的CIDR。它和MON_IP必須是同一個網(wǎng)絡(luò)。

CEPH_CLUSTER_NETWORK是運行Docker的主機的備用網(wǎng)口的CIDR,為OSD的備份流量使用。

Object Storage Daemon

我們現(xiàn)在能實現(xiàn)允許每一個OSD進(jìn)程運行在一個獨立的容器里。按照微服務(wù)的理念,一個容器里不應(yīng)該運行超過一個服務(wù)。而在我們這里,在同一個容器里運行多個OSD進(jìn)程,打破了這一理念,當(dāng)然這也會給系統(tǒng)的配置和維護(hù)帶來額外的復(fù)雜度。

在這樣的配置下,我們必須使用--privileged=true來使得容器中的進(jìn)程可以訪問/dev等其他內(nèi)核功能。然后,我們在開放OSD的目錄的基礎(chǔ)上也支持其他配置,開放OSD的目錄可以讓operators來對設(shè)備做合適的準(zhǔn)備工作。

這樣我們就可以簡單地開放OSD目錄,配置OSD(ceph-osd mkfs)的工作就會通過Entry Point來完成。我下面介紹的配置方法是最簡單的,因為它只需要你指定一個block device,剩下的事情都會由Entry Point完成。

如果不想用--privileged=true可以采用我的第二個例子。

$ sudo docker run -d --net=host \

--privileged=true \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-v /dev/:/dev/ \

-e OSD_DEVICE=/dev/vdd \

ceph-daemon osd_ceph_disk

如果你不想使用--privileged=true,你也可以使用你喜歡的配置管理工具來手動配置OSD。

下面這個例子我假定你已經(jīng)實現(xiàn)分區(qū)并配置好文件系統(tǒng)。運行下面的命令來生成你的OSD:

$ sudo docker exec <mon-container-id> ceph osd create.

然后運行你的容器:

docker run -v /osds/1:/var/lib/ceph/osd/ceph-1 -v /osds/2:/var/lib/ceph/osd/ceph-2

$ sudo docker run -d --net=host \

-v /etc/ceph:/etc/ceph \

-v /var/lib/ceph/:/var/lib/ceph \

-v /osds/1:/var/lib/ceph/osd/ceph-1 \

ceph-daemon osd_disk_directory

可配置的選項如下:

OSD_DEVICE i是OSD設(shè)備,例如:/dev/sdb

OSD_JOURNAL使用來儲存OSD journal的設(shè)備,例如:/dev/sdz

HOSTNAME是運行OSD的主機(默認(rèn)為$(hostname)

OSD_FORCE_ZAP會強制將制定的設(shè)備內(nèi)容zapping(默認(rèn)為 0,設(shè)為1去開啟)

OSD_JOURNAL_SIZE是OSD journal的大?。J(rèn)為 100)

Metadata 服務(wù)器

這個組件的設(shè)置較為直觀。唯一需要注意的地方是在Docker中我們可以訪問Ceph管理員密鑰。這個密鑰會用來生成CephFS pools和文件系統(tǒng)。

如果你運行0.87以前的Ceph版本,你就不需要做此配置,然而我們最好運行最新的版本!

$ sudo docker run -d --net=host \

-v /var/lib/ceph/:/var/lib/ceph \

-v /etc/ceph:/etc/ceph \

-e CEPHFS_CREATE=1 \

ceph-daemon mds

可配置的選項如下:

MDS_NAME是Metadata服務(wù)器的名字(默認(rèn)為mds-$(hostname))。

CEPHFS_CREATE會為Metadata服務(wù)器生成文件系統(tǒng)(默認(rèn)為0,設(shè)為1 去開啟)。

CEPHFS_NAME是Metadata文件系統(tǒng)的名字(默認(rèn)為cephfs)。

CEPHFS_DATA_POOL是Metadata服務(wù)器data pool的名字(默認(rèn)為cephfs_data)。

CEPHFS_DATA_POOL_PG是data pool的placement groups的數(shù)量 (默認(rèn)為8)。

CEPHFS_DATA_POOL是Metadata服務(wù)器metadata pool的名字(默認(rèn)為cephfs_metadata)。

CEPHFS_METADATA_POOL_PG是metadata pool的placement groups的數(shù)量(默認(rèn)為 8)。

RADOS gateway

我們部署RADOS gateway時默認(rèn)開啟civetweb。當(dāng)然,我們也可以通過指定地址和端口來使用不同的CGI前端:

$ sudo docker run -d --net=host \

-v /var/lib/ceph/:/var/lib/ceph \

-v /etc/ceph:/etc/ceph \

ceph-daemon rgw

可配置的選項如下:

RGW_REMOTE_CGI指定是否使用嵌入的web服務(wù)器(默認(rèn)為0,設(shè)為1去關(guān)閉)。

RGW_REMOTE_CGI_HOST指定運行CGI進(jìn)程的遠(yuǎn)程主機。

RGW_REMOTE_CGI_PORT是運行CGI進(jìn)行的遠(yuǎn)程主機端口。

RGW_CIVETWEB_PORT是civetweb的監(jiān)聽端口(默認(rèn)為80)。

RGW_NAME是RADOS gateway實例的名字(默認(rèn)為$(hostname))。

后續(xù)工作

后端配置存儲

在默認(rèn)配置下,ceph.conf和所有的Ceph密鑰都會在監(jiān)測模塊啟動階段生成。這個過程假定了你必須在將集群擴展到多節(jié)點的時候去把這些配置傳送到所有節(jié)點上。這個操作并不靈活,我們希望去改善它。我馬上要提出的一個方案就是利用Ansible來生成這些配置文件和密碼,并將他們安裝到所有機器上。

另一種方法是將所有的配置信息存儲到不同的后端服務(wù)器上,例如etcd或consul。

部署管理

最直觀的方案是使用現(xiàn)成的ceph-ansible,雖然我還需要做一些變動,但主體工作已經(jīng)完成。另一種方案是使用Kubernetes,他們的預(yù)覽版本已經(jīng)發(fā)布。

支持Rocket等其他容器技術(shù)

也不需要做什么,因為你可以直接將你的Docker鏡像運送到Rocket里,然后運行。

“怎么在Docker里運行Ceph”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI