溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

單機Ceph如何從Firefly升級到Hammer

發(fā)布時間:2021-12-17 10:14:52 來源:億速云 閱讀:107 作者:小新 欄目:云計算

這篇文章將為大家詳細講解有關(guān)單機Ceph如何從Firefly升級到Hammer,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

單機上部署了Firefly版的Ceph集群,其中包括:mon(一個)、osd(三個)和mds(一個)。單機上使用的操作系統(tǒng)是ubuntu-14.04-server-amd64版。此次升級的要求是數(shù)據(jù)不能丟失且不能停機升級。

由于當前Firefly版本使用的是mkcephfs部署的,而新版本的ceph已經(jīng)用ceph-deploy代替了mkcephfs,因此在Hammer版本中已經(jīng)沒有了mkcephfs。升級部署可以使用ceph-deploy工具進行升級,也可以通過包管理的方法進行升級。這里我才用ceph-deploy工具進行升級。

具體升級操作流程如下:

1、安裝ceph-deploy工具。

    1)更新新版本的軟件源。

        #wget -q -O- 'https://git.ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc' | sudo apt-key add -

        #apt-add-repository 'deb http://download.ceph.com/debian-hammer/ trusty main'

        #echo deb https://download.ceph.com/debian-hammer/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.list

    2)更新ceph-deploy。

        #pip install -U ceph-deploy

2、更新monitor節(jié)點。

    1)更新ceph集群中的所有monitor節(jié)點的ceph版本。

        由于我的集群都部署在一臺設(shè)備上了,所以此處的更新就是整個Ceph集群的更新

        #ceph-deploy install --release hammer ceph0

    2)重新啟動每一個monitor節(jié)點。

        #/etc/init.d/ceph restart mon

    3)查看monitor節(jié)點的啟動情況。

        #ceph mon stat

e1: 1 mons at {a=192.168.250.58:6789/0}, election epoch 1, quorum 0 a

3、更新OSD節(jié)點。

    1)更新ceph集群中的所有osd節(jié)點的ceph版本。

        #ceph-deploy install --release hammer ceph0

    2)重新啟動每一個osd節(jié)點。

        #/etc/init.d/ceph restart osd

    3)查看osd節(jié)點的啟動情況。

        #ceph osd stat

    osdmap e191: 3 osds: 3 up, 3 in

4、更新MDS節(jié)點。

    1)更新ceph集群中的所有mds節(jié)點的ceph版本。

        #ceph-deploy install --release hammer ceph0

    2)重新啟動每一個mds節(jié)點。

        #/etc/init.d/ceph restart mds

    3)查看mds節(jié)點的啟動情況。

        #ceph mds stat

e27: 1/1/1 up {0=0=up:active}

5、查看當前ceph集群的版本號。

    #ceph --verison

ceph version 0.94.5 (9764da52395923e0b32908d83a9f7304401fee43)

    此處可以看到ceph已經(jīng)成功升級到了Hammer版本。

6、查看當前ceph集群的運行情況。

    #ceph -s 

cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9

     health HEALTH_WARN

            too many PGs per OSD (2760 > max 300)

     monmap e1: 1 mons at {a=192.168.250.58:6789/0}

            election epoch 1, quorum 0 a

     mdsmap e27: 1/1/1 up {0=0=up:active}

     osdmap e190: 3 osds: 3 up, 3 in

      pgmap v450486: 2760 pgs, 21 pools, 27263 MB data, 18280 objects

            85251 MB used, 1589 GB / 1672 GB avail

                2760 active+clean

    此時可以看到Ceph當前的狀態(tài)是HEALTH_WARN狀態(tài)。問題出在ceph集群默認每個OSD上最多只能有300個PGs,而當前的系統(tǒng)上有多達2760個PGs(在Firefly版本上并沒有給出上述的HEALTH_WARN狀態(tài),而是升級到Hammer版后才給出的提示)。

    針對這個問題,我的解決方案是修改ceph配置文件中關(guān)于關(guān)于沒有OSD最多可以配置的PGs數(shù)量來解決這個問題。在ceph.conf的[mon]節(jié)點下添加mon pg warn max per osd = 4096。保存ceph.conf后重新啟動ceph monitor節(jié)點,之后再使用ceph -s查看當前ceph集群的狀態(tài)時,一切就都正常了。

    #ceph -s 

cluster e4251f73-2fe9-4dfc-947f-962843dc6ad9

     health HEALTH_OK

     monmap e1: 1 mons at {a=192.168.250.58:6789/0}

            election epoch 1, quorum 0 a

     mdsmap e27: 1/1/1 up {0=0=up:active}

     osdmap e191: 3 osds: 3 up, 3 in

      pgmap v450550: 2760 pgs, 21 pools, 27263 MB data, 18280 objects

            85245 MB used, 1589 GB / 1672 GB avail

                2760 active+clean

ceph集群從Firefly版升級到Hammer版需要注意的問題有:

1、monitor訪問權(quán)限中一定要添加caps mon 'allow *'到/var/lib/ceph/mon/ceph-a/keyring中;

2、集群一定要使用默認的路徑,即:/var/lib/ceph

關(guān)于“單機Ceph如何從Firefly升級到Hammer”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI