您好,登錄后才能下訂單哦!
一、節(jié)點準備
1、節(jié)點配置
hostname | |
g0 | matadata節(jié)點 |
g1 | matadata節(jié)點 |
g2 | matadata節(jié)點 |
g3 | data節(jié)點 |
g4 | data節(jié)點 |
g5 | data節(jié)點 |
2、安裝ntp
yum install ntp -y service ntpd start systemctl enable ntpd
二、安裝gpfs
1、設置ssh無密碼登錄
salt-ssh -i '*' cp.get_file salt://id_rsa /root/.ssh/id_rsa salt-ssh -i '*' cp.get_file salt://id_rsa.pub /root/.ssh/id_rsa.pub salt-ssh -i '*' cmd.run 'chmod 600 /root/.ssh/id_rsa' salt-ssh -i '*' cmd.run 'chmod 600 /root/.ssh/id_rsa.pub'
2、安裝gpfs
salt-ssh -i 'g*' cmd.run 'cd /root/gpfs && tar xvzf GPFS_4.1_ADV_LSX.tar.gz' salt-ssh -i 'g*' cmd.run 'cd /root/gpfs/gpfs_install-4.1.0-0_x86_64 --silent' salt-ssh -i 'g*' cmd.run 'yum localinstall /usr/lpp/mmfs/4.1/*rpm -y' salt-ssh -i 'g*' cmd.run 'bash /root/gpfs/Spectrum_Scale_Advanced-4.1.1.3-x86_64-Linux-update' salt-ssh -i 'g*' cmd.run 'mv /usr/lpp/mmfs/4.1.1.3/gpfs.hadoop-connector-2.7.0-2.x86_64.rpm /usr/lpp/mmfs/4.1.1.3/gpfs.hadoop-connector-2.7.0-2.x86_64.rpm.orig' salt-ssh -i 'g*' cmd.run 'yum localinstall /usr/lpp/mmfs/4.1.1.3/*rpm -y'
3、編譯gpfs內(nèi)核模塊,在其中一個節(jié)點上執(zhí)行
3.1、編譯內(nèi)核模塊
cd /usr/lpp/mmfs/src/ yum install kernel-devel cpp gcc gcc-c++ make LINUX_DISTRIBUTION=REDHAT_AS_LINUX Autoconfig make World make InstallImages
3.2、將gpfs內(nèi)核模塊編譯為rpm包
yum install rpm-build make rpm
3.3、將編譯好的rpm包復制到其他節(jié)點并安裝
4、設置path變量
salt-ssh -i 'g*' file.append /etc/profile 'export PATH=$PATH:/usr/lpp/mmfs/bin/'
三、創(chuàng)建gpfs集群
1、創(chuàng)建gpfs節(jié)點
編輯用于創(chuàng)建節(jié)點的配置文件
cat <<EOF>> /root/gpfs_config/nodefile g0:quorum-manager g1:quorum-manager g2:quorum-manager g3:manager g4:manager g5:manager EOF
創(chuàng)建gpfs集群
mmcrcluster -N /root/gpfs_config/nodefile -p g0 -s g1 -C gpfscluster -A -r /usr/bin/ssh -R /usr/bin/scp 參數(shù):-N表示節(jié)點的配置文件 -p表示主節(jié)點 -s表示第二節(jié)點(Secondary cluster configuration server) -C集群名稱 —A表示當一個節(jié)點重啟的時候GPFS守護進程不會關閉。 -r和-R都是通信協(xié)議。
2、授權(quán)l(xiāng)icense
mmchlicense server --accept -N g0,g1,g2,g3,g4,g5
3、添加nsd
編輯nsdfile.cfg
%pool: pool=system blockSize=512K layoutMap=cluster %pool: pool=datapool blockSize=2M layoutMap=cluster writeAffinityDepth=1 blockGroupFactor=256 %nsd: device=/dev/vdb servers=g0 nsd=metansd00 usage=metadataOnly pool=system %nsd: device=/dev/vdb servers=g1 nsd=metansd01 usage=metadataOnly pool=system %nsd: device=/dev/vdb servers=g2 nsd=metansd02 usage=metadataOnly pool=system %nsd: device=/dev/vdb servers=g3 nsd=datansd00 usage=dataOnly pool=datapool %nsd: device=/dev/vdb servers=g4 nsd=datansd01 usage=dataOnly pool=datapool %nsd: device=/dev/vdb servers=g5 nsd=datansd02 usage=dataOnly pool=datapool
添加nsd
mmcrnsd -F nsdfile.cfg
4、啟動集群
mmstartup -a # 查看集群狀態(tài): mmgetstate -La
5、創(chuàng)建gpfs文件系統(tǒng)
# mmcrfs /gpfs gpfs -F nsdfile.cfg -A yes -v no mmcrfs gpfs -F nsdfile.cfg -A yes -B 1M -j hcluster -m 2 -r 2 -M 3 -R 3 -T /gpfs --metadata-block-size 256K -v no 參數(shù)說明: gpfs:表示文件系統(tǒng)的名稱 -F:指定NSD配置文件 -A:當系統(tǒng)守護進程啟動時該項設置為yes -B:指定數(shù)據(jù)塊的大小,其值必須是16k,64k,128k,256k,512k,1M,2M,4M,8M,16M. -j:指定映射類型 -m:元數(shù)據(jù)副本數(shù)的默認值 -M:元數(shù)據(jù)副本數(shù)的最大值 -r:數(shù)據(jù)副本數(shù)的默認值 -R:數(shù)據(jù)副本數(shù)的最大值 -T:掛載點 --metadata-block-size:元數(shù)據(jù)節(jié)點塊的大小 -v 校驗建立磁盤是否已有文件系統(tǒng) 為否 mmshutdown -a mmchconfig maxblocksize=2048K mmstartup -a mmcrfs gpfs -F nsdfile.cfg -A yes -j hcluster -m 2 -r 2 -M 3 -R 3 -T /gpfs -v no
6、掛載文件系統(tǒng)
mmmount gpfs /gpfs –N all
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。