溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

ceph -s集群報錯too many PGs per OSD怎么辦

發(fā)布時間:2021-11-19 11:06:31 來源:億速云 閱讀:292 作者:小新 欄目:云計算

小編給大家分享一下ceph -s集群報錯too many PGs per OSD怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

背景

集群狀態(tài)報錯,如下:

# ceph -s
    cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560
     health HEALTH_WARN		<-- 報錯的地方
            too many PGs per OSD (912 > max 300)
     monmap e1: 1 mons at {node1=109.105.115.67:6789/0}
            election epoch 4, quorum 0 node1
     osdmap e49: 2 osds: 2 up, 2 in
            flags sortbitwise,require_jewel_osds
      pgmap v1256: 912 pgs, 23 pools, 4503 bytes data, 175 objects
            13636 MB used, 497 GB / 537 GB avail
                 912 active+clean

分析

問題原因是集群osd 數(shù)量較少,在我的測試過程中,由于搭建rgw網(wǎng)關、和OpenStack集成等,創(chuàng)建了大量的pool,每個pool要占用一些pg ,ceph集群默認每塊磁盤都有默認值,好像每個osd 為300個pgs,不過這個默認值是可以調整的,但調整得過大或者過小都會對集群的性能產生一定影響。因為我們這個是測試環(huán)境,只要能消除掉報錯即可。查詢當前每個osd下最大的pg報警值:

$ ceph --show-config  | grep mon_pg_warn_max_per_osd

mon_pg_warn_max_per_osd = 300

解決方案

在配置文件中,調大集群的此選項的告警閥值;方法如下,在mon節(jié)點的ceph.conf(/etc/ceph/ceph.conf)配置文件中添加:

$ vi /etc/ceph/ceph.conf
[global]
.......
mon_pg_warn_max_per_osd = 1000

重啟monitor服務:

$ systemctl restart ceph-mon.target

再次查看ceph集群狀態(tài)。

$ ceph -s

cluster 1d64ac80-21be-430e-98a8-b4d8aeb18560
 health HEALTH_OK
 monmap e1: 1 mons at {node1=109.105.115.67:6789/0}
        election epoch 6, quorum 0 node1
 osdmap e49: 2 osds: 2 up, 2 in
        flags sortbitwise,require_jewel_osds
  pgmap v1273: 912 pgs, 23 pools, 4503 bytes data, 175 objects
        13636 MB used, 497 GB / 537 GB avail
             912 active+clean

以上是“ceph -s集群報錯too many PGs per OSD怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業(yè)資訊頻道!

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內容。

AI