溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

ceph中如何解決HEALTH_WARN too few PGs per OSD問題

發(fā)布時間:2021-12-29 14:44:32 來源:億速云 閱讀:189 作者:小新 欄目:云計算

這篇文章主要介紹ceph中如何解決HEALTH_WARN too few PGs per OSD問題,文中介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們一定要看完!

    health HEALTH_WARN too few PGs per OSD (16 < min 30)

執(zhí)行ceph –s 發(fā)現(xiàn)集群狀態(tài)并非ok,具體信息如下:

$ sudo ceph -s
    cluster 257faba1-f259-4164-a0f9-1726bd70b05a
     health HEALTH_WARN
            too few PGs per OSD (16 < min 30)
     monmap e1: 1 mons at {bdc217=192.168.13.217:6789/0}
            election epoch 2, quorum 0 bdc217
     osdmap e50: 8 osds: 8 up, 8 in
            flags sortbitwise
      pgmap v119: 64 pgs, 1 pools, 0 bytes data, 0 objects
            715 MB used, 27550 GB / 29025 GB avail
                  64 active+clean

由于是新配置的集群,只有一個pool

$ sudo ceph osd lspools
0 rbd,

查看rbd pool的PGS

$ sudo ceph osd pool get rbd pg_num
pg_num: 64

pgs為64,因?yàn)槭?副本的配置,所以當(dāng)有8個osd的時候,每個osd上均分了64/8 *2=16個pgs,也就是出現(xiàn)了如上的錯誤 小于最小配置30個

解決辦法:修改默認(rèn)pool rbd的pgs

$ sudo ceph osd pool set rbd pg_num 128
set pool 0 pg_num to 128
$ sudo ceph -s
    cluster 257faba1-f259-4164-a0f9-1726bd70b05a
     health HEALTH_WARN
            64 pgs stuck inactive
            64 pgs stuck unclean
            pool rbd pg_num 128 > pgp_num 64
     monmap e1: 1 mons at {bdc217=192.168.13.217:6789/0}
            election epoch 2, quorum 0 bdc217
     osdmap e52: 8 osds: 8 up, 8 in
            flags sortbitwise
      pgmap v121: 128 pgs, 1 pools, 0 bytes data, 0 objects
            715 MB used, 27550 GB / 29025 GB avail
                  64 active+clean
                  64 creating

發(fā)現(xiàn)需要把pgp_num也一并修改,默認(rèn)兩個pg_num和pgp_num一樣大小均為64,此處也將兩個的值都設(shè)為128

$ sudo ceph osd pool set rbd pgp_num 128
set pool 0 pgp_num to 128

最后查看集群狀態(tài),顯示為OK,錯誤解決:

$ sudo ceph -s
    cluster 257faba1-f259-4164-a0f9-1726bd70b05a
     health HEALTH_OK
     monmap e1: 1 mons at {bdc217=192.168.13.217:6789/0}
            election epoch 2, quorum 0 bdc217
     osdmap e54: 8 osds: 8 up, 8 in
            flags sortbitwise
      pgmap v125: 128 pgs, 1 pools, 0 bytes data, 0 objects
            718 MB used, 27550 GB / 29025 GB avail
                 128 active+clean

以上是“ceph中如何解決HEALTH_WARN too few PGs per OSD問題”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI