溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

分布式存儲Ceph的快速安裝方法

發(fā)布時間:2021-09-18 16:12:26 來源:億速云 閱讀:129 作者:chen 欄目:云計算

這篇文章主要講解了“分布式存儲Ceph的快速安裝方法”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“分布式存儲Ceph的快速安裝方法”吧!

環(huán)境準(zhǔn)備

  • 系統(tǒng)CentOS 7.3

  • 文件系統(tǒng)XFS

  • 集群節(jié)點(diǎn)數(shù)量3
    分布式存儲Ceph的快速安裝方法

總共3臺機(jī)器,mon和osd每個節(jié)點(diǎn)都進(jìn)行部署,其中node0節(jié)點(diǎn)同時作為管理節(jié)點(diǎn)通過ceph-deploy部署自身節(jié)點(diǎn)和其他節(jié)點(diǎn)。

安裝 ceph-deploy

  • 在所有節(jié)點(diǎn)執(zhí)行下列命令

    sudo yum install -y yum-utils && sudo yum-config-manager --add-repo https://dl.fedoraproject.org/pub/epel/7/x86_64/ && sudo yum install --nogpgcheck -y epel-release && sudo rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-EPEL-7 && sudo rm /etc/yum.repos.d/dl.fedoraproject.org*


     

  • 修改ceph的yum源為163

    sudo vim /etc/yum.repos.d/ceph.repo


    ceph.repo改為如下

    [ceph]
    name=ceph
    baseurl=http://mirrors.163.com/ceph/rpm-jewel/el7/x86_64/
    gpgcheck=0
    priority=1
    
    [ceph-noarch]
    name=cephnoarch
    baseurl=http://mirrors.163.com/ceph/rpm-jewel/el7/noarch/
    gpgcheck=0
    priority=1
    
    [ceph-source]
    name=Ceph source packages
    baseurl=http://mirrors.163.com/ceph/rpm-jewel/el7/SRPMS
    enabled=1
    gpgcheck=1
    type=rpm-md
    gpgkey=http://mirrors.163.com/ceph/keys/release.asc
    priority=1


     

  • 更新軟件庫并安裝 ceph-deploy 

    sudo yum update && sudo yum install ceph-deploy


     

Ceph節(jié)點(diǎn)安裝

  • 所有節(jié)點(diǎn)安裝NTP

    sudo yum install ntp ntpdate ntp-doc


    確保在各 Ceph 節(jié)點(diǎn)上啟動了 NTP 服務(wù),并且要使用同一個 NTP 服務(wù)器,詳情見 NTP 。

  • 所有節(jié)點(diǎn)安裝 SSH 服務(wù)器

    sudo yum install openssh-server

     

  • 創(chuàng)建部署 Ceph 的用戶

    ceph-deploy 工具必須以普通用戶登錄 Ceph 節(jié)點(diǎn),且此用戶擁有無密碼使用 sudo 的權(quán)限,因為它需要在安裝軟件及配置文件的過程中,不必輸入密碼。
    1. 在各Ceph 節(jié)點(diǎn)創(chuàng)建新用戶,創(chuàng)建一個work的用戶

    sudo useradd -d /home/work -m work 
    sudo passwd work

    2. 確保各 Ceph 節(jié)點(diǎn)上新創(chuàng)建的用戶都有 sudo 權(quán)限

    echo "work ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/work
    sudo chmod 0440 /etc/sudoers.d/work


     

  • 允許無密碼 SSH 登錄
    正因為 ceph-deploy 不支持輸入密碼,你必須在管理節(jié)點(diǎn)上生成 SSH 密鑰并把其公鑰分發(fā)到各 Ceph 節(jié)點(diǎn)。 ceph-deploy 會嘗試給初始 monitors 生成 SSH 密鑰對。
    1. 用work用戶生成 SSH 密鑰對。提示 “Enter passphrase” 時,直接回車,口令即為空

    ssh-keygen

    2. 把公鑰拷貝到各 Ceph 節(jié)點(diǎn),公鑰在node0生成的拷貝到node1和node2節(jié)點(diǎn)

    ssh-copy-id work@node1
    ssh-copy-id work@node2


     

  • 開放所需端口
    Ceph Monitors 之間默認(rèn)使用 6789 端口通信, OSD 之間默認(rèn)用 6800:7300 這個范圍內(nèi)的端口通信。 Ceph OSD 能利用多個網(wǎng)絡(luò)連接進(jìn)行與客戶端、monitors、其他 OSD 間的復(fù)制和心跳的通信。

  • 關(guān)閉防火墻和selinux

    systemctl stop firewalld && systemctl disable firewalld && setenforce 0 && sed -i '/SELINUX/s/enforcing/disabled/' /etc/selinux/config


     

  • 優(yōu)先級/首選項

    sudo yum install yum-plugin-priorities


  • 在work用戶下創(chuàng)建文件夾

    mkdir my-cluster && cd my-cluster

     

創(chuàng)建集群

  • 創(chuàng)建monitor集群

    ceph-deploy new node0 node1 node2

     這里我們node0,node1,node2都作為monitor集群節(jié)點(diǎn),命令執(zhí)行完后會生成應(yīng) Ceph 配置文件、一個 monitor 密鑰環(huán)和一個日志文件。

  • Ceph 配置文件里
    osd pool default size 為副本數(shù)量默認(rèn)為3,如果你有多個網(wǎng)卡,可以把 public network 寫入 Ceph 配置文件的 [global] 段下。public network = {ip-address}/{netmask},例子如下:

    public network = 10.112.101.0/24


     

  • 安裝 Ceph

    ceph-deploy install node0 node1 node2


     

  • 配置初始 monitor(s)、并收集所有密鑰

    ceph-deploy mon create-initial


     

添加OSD 

  • 添加3個OSD

    sudo mkdir /var/local/osd0
    
    ssh node1
    sudo mkdir /var/local/osd1
    exit
    
    ssh node2
    sudo mkdir /var/local/osd2
    exit

    修改目錄權(quán)限

    chmod 777  /var/local/osd0/ | chmod 777  /var/local/osd0/* | chmod 777  /var/local/osd1/ |chmod 777  /var/local/osd1/* | chmod 777  /var/local/osd2/ |chmod 777  /var/local/osd2/*


  • 從管理節(jié)點(diǎn)執(zhí)行 ceph-deploy 來準(zhǔn)備 OSD

    ceph-deploy osd prepare node0:/var/local/osd0 node1:/var/local/osd1 node2:/var/local/osd2


     

  • 激活OSD

    ceph-deploy osd activate node0:/var/local/osd0 node1:/var/local/osd1 node2:/var/local/osd2


     

  • 用 ceph-deploy 把配置文件和 admin 密鑰拷貝到管理節(jié)點(diǎn)和 Ceph 節(jié)點(diǎn),這樣你每次執(zhí)行 Ceph 命令行時就無需指定 monitor 地址和 ceph.client.admin.keyring 了。

    ceph-deploy admin node0 node1 node2


     

  • 確保你對 ceph.client.admin.keyring 有正確的操作權(quán)限。

    sudo chmod +r /etc/ceph/ceph.client.admin.keyring


     

  • 查看集群狀態(tài)

    ceph -s


至此快速搭建集群完成!

感謝各位的閱讀,以上就是“分布式存儲Ceph的快速安裝方法”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對分布式存儲Ceph的快速安裝方法這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點(diǎn)的文章,歡迎關(guān)注!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI