您好,登錄后才能下訂單哦!
本篇內(nèi)容介紹了“分布式Ceph存儲(chǔ)集群集的詳細(xì)步驟”的有關(guān)知識(shí),在實(shí)際案例的操作過(guò)程中,不少人都會(huì)遇到這樣的困境,接下來(lái)就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!
先上幾張圖展示下目前Ceph存儲(chǔ)的大體情況,模擬更換服務(wù)器CLIENT3上數(shù)據(jù)硬盤(pán),ceph存儲(chǔ)設(shè)備已經(jīng)有存放數(shù)據(jù),觀(guān)察更換過(guò)程及恢復(fù)變化。
[root@client3 ~]# systemctl stop ceph-osd@2.service
[root@client3 ~]# umount /var/lib/ceph/osd/ceph-2
[root@client3 ~]# ceph osd out osd.2
[root@client3 ~]# ceph auth del osd.2
[root@client3 ~]# ceph osd rm 2
清空磁盤(pán)信息:
[root@client3 ~]# wipefs -af /dev/sdb
磁盤(pán)變化:(刪除舊磁盤(pán),更換新盤(pán),虛擬機(jī)中刪除后原50G硬盤(pán),重新添加一個(gè)80G硬盤(pán)。
此時(shí)集群狀態(tài)
原硬盤(pán)50G更換后為80G
[root@master ~]# cd /data/idc-cluster/
[root@master idc-cluster]# ceph-deploy osd prepare client3:/dev/sdb
存儲(chǔ)空間也變大了(原來(lái)為135G,更改硬盤(pán)后存儲(chǔ)空間為165G)。
數(shù)據(jù)依然存在,無(wú)變化。
CEPH集群恢復(fù)中:
[root@BDDB cephfs]# ceph health
恢復(fù)完成:[root@BDDB cephfs]# ceph health
“分布式Ceph存儲(chǔ)集群集的詳細(xì)步驟”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識(shí)可以關(guān)注億速云網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實(shí)用文章!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀(guān)點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。