GPFS 副本集群部署指南
wutz opened this issue · 0 comments
wutz commented
-
准备
- 访问 https://www.ibm.com/docs/en/storage-scale?topic=STXKQY/gpfsclustersfaq.html 检查使用的 GPFS 版本支持 OS 和 MOFED (如果环境配置 IB/RoCE) 版本
- [可选] 安装 MOFED 驱动并重启
- 配置节点间 SSH 免密
- 关闭 selinux & firewalld
- 配置 ntp 和时区
- 配置
/etc/hosts
其中每个节点使用格式<ip> <fqdn> <alias>
-
安装软件包
-
./Spectrum_Scale_Data_Management-5.1.5.1-x86_64-Linux-install
接受即可 -
安装 rpm 包
$ cd /usr/lpp/mmfs/5.1.5.1/gpfs_rpms/ $ sudo rpm -ivh gpfs.base*.rpm gpfs.gpl*rpm gpfs.license*rpm gpfs.gskit*rpm gpfs.adv*rpm
-
构建 GPFS portability layer
$ sudo /usr/lpp/mmfs/bin/mmbuildgpl --build-package $ sudo rpm -ivh /root/rpmbuild/RPMS/x86_64/gpfs.gplbin*rpm
-
把 rpm 包拷贝到其他节点重复 c 步骤
-
-
设置环境变量
export PATH=**/usr/lpp/mmfs/bin:**$PATH
-
创建集群并启动
$ cat << 'EOF' > NodeList server1:quorum-manager server2:quorum-manager server3:quorum client1 client2 EOF $ sudo mmcrcluster -N NodeList --ccr-enable -r /usr/bin/ssh -R /usr/bin/scp -C cluster1 $ sudo mmchlicense server --accept -N server1,server2,server3 $ sudo mmchlicense client --accept -N client1,client2 $ sudo mmlscluster $ sudo mmstartup -a
-
创建 NSD
$ cat << 'EOF' > gen_nsd.sh for node in server{1..3}; do for dev in nvme{0..7}n1; do cat << 'IN' %nsd: device=/dev/$dev nsd=nsd_${node}_${dev} servers=$node usage=dataAndMetadata failureGroup=${node#server} thinDiskType=nvme IN done done EOF $ sh gen_nsd.sh > NSD $ sudo mmcrnsd -F NSD
- 在较小存储集群中通常按照节点设置 failureGroup
-
创建 GPFS
$ sudo mmcrfs fs1 -F NSD -m 2 -r 2 -M 3 -R 3 -A yes -Q yes $ sudo mmmount fs1 -a $ sudo mmlsdisk fs1 -L $ sudo mmlsnsd $ sudo mmlsfs fs1 $ sudo mmchfs fs1 -m 3 && mmrestripefs fs1 -R
-
启用 RoCE/IB 通信
$ sudo mmchconfig verbsRdma=enable,verbsRdmaSend=yes,verbsPorts="mlx5_bond_0",verbsRdmaCm=enable $ sudo mmshutdown -a $ sudo mmstartup -a
- 如果使用 RoCE,网络配置必须开启 IPv6 且必须设置
verbsRdmaCm=enable
- 如果使用 RoCE,网络配置必须开启 IPv6 且必须设置