IBM Storage Scale (GPFS)并行文件系统的搭建和简单使用

82384d29b1ec033c623f77bb9f889469.gif

新钛云服已累计为您分享812篇技术干货

c39c590ca3c8f47e13af153c6ccd0e3c.gif

实验环境信息

我们将在三台RHEL8.3版本的x86服务器上安装Spectrum Scale 5.1.1版本三台服务器已经预先进行了如下配置

(1)RHEL安装盘作为本地YUM源

(2)节点间互信,免密码登录

(3)/etc/hosts中添加主机名称和IP地址信息

(4)防火墙关闭且SELINUX=disabled

(5)预安装以下rpm包

 yum install kernel-devel cpp gcc gcc-c++ glibc sssd ypbind openldap-clients krb5-workstation elfutils elfutils-devel make

提取GPFS所需基本包

注意:此后如没有特殊说明,都只在gpfs101节点上执行即可

其中参数--silent 表示以静默方式提取,如果不加该参数需要输入数字“1”,同意相关协议

/root/Spectrum_Scale_Advanced-5.1.1.0-x86_64-Linux-install --silent

配置 Install 节点

cd /usr/lpp/mmfs/5.1.1.0/ansible-toolkit/
./spectrumscale setup -s 192.168.1.101

添加节点并查看配置

其中参数-a表示admin节点、-g表示GUI节点,-n表示NSD节点,-m表示manager节点,-q表示quorum节点

./spectrumscale node add gpfs101 -a -g -n -m -q
./spectrumscale node add gpfs102 -a -g -n -q
./spectrumscale node add gpfs103 -n -q
./spectrumscale node list

增加NSD磁盘空间,并查看

其中参数-p表示主NSD节点,-fs表示创建的文件系统,-fg表示所在的Failure Group,-po表示存储池,-u表示存储的数据类型,“/dev/sdx”表示磁盘设备,实验中3个NSD节点各有3块本地磁盘sdb/sdc/sdd用于创建NSD。

以下命令创建了一个Filesystem(gpfs);

3个Pool(system/pool01/pool02);

3个Failure Group(101/102/103)

./spectrumscale nsd add -p gpfs101 -fs gpfs -fg 101 -po system -u dataAndMetadata "/dev/sdb"
./spectrumscale nsd add -p gpfs101 -fs gpfs -fg 101 -po pool01 -u dataOnly "/dev/sdc"
./spectrumscale nsd add -p gpfs101 -fs gpfs -fg 101 -po pool02 -u dataOnly "/dev/sdd"
./spectrumscale nsd add -p gpfs102 -fs gpfs -fg 102 -po system -u dataAndMetadata "/dev/sdb"
./spectrumscale nsd add -p gpfs102 -fs gpfs -fg 102 -po pool01 -u dataOnly "/dev/sdc"
./spectrumscale nsd add -p gpfs102 -fs gpfs -fg 102 -po pool02 -u dataOnly "/dev/sdd"
./spectrumscale nsd add -p gpfs103 -fs gpfs -fg 103 -po system -u dataAndMetadata "/dev/sdb"
./spectrumscale nsd add -p gpfs103 -fs gpfs -fg 103 -po pool01 -u dataOnly "/dev/sdc"
./spectrumscale nsd add -p gpfs103 -fs gpfs -fg 103 -po pool02 -u dataOnly "/dev/sdd"
./spectrumscale nsd list

查看文件系统,

调整副本数量与挂载点

其中参数 -mr表示metadata当前副本数,-MR表示metadata最大副本数,-r表示当前数据副本数,-R表示最大数据副本数,-m表示挂载点位置。这里可以通过list命令,查看副本数和挂载点修改前后的对比

./spectrumscale filesystem list
./spectrumscale filesystem modify gpfs -mr 2 -MR 3 -r 2 -R 3 -m /gpfs
./spectrumscale filesystem list

配置性能监控功能

开启性能监控,默认已经打开

./spectrumscale config perfmon -r on

配置GPFS 集群名

通讯端口并查看

其中参数-c表示集群名称,-e表示GPFS Daemon通讯端口范围

./spectrumscale config gpfs -c gpfsdemo -e 60000-61000
./spectrumscale config gpfs --list

配置 Callhome 功能

这里我们把callhome功能关闭

./spectrumscale callhome disable

查看并检查GPFS集群配置信息

./spectrumscale install --precheck

开始安装GPFS集群

包括NSD,性能监控,GUI,文件系统等安装

注意:前述步骤只是进行配置,当前步骤才开始按照前述配置执行安装

./spectrumscale install

该命令运行时间较长,请耐心等待16分钟

  • 编译问题:

   问题一:

Cannot find a valid kernel header file. One of these files should exist.
      /lib/modules/3.10.0-1160.el7.x86_64/build/include/linux/version.h
      /usr/src/linux-3.10.0-1160.el7.x86_64/include/linux/version.h
      /usr/src/kernels/3.10.0-1160.el7.x86_64/include/generated/uapi/linux/version.h
      /lib/modules/3.10.0-1160.el7.x86_64/build/include/generated/uapi/linux/version.h


Contact IBM Service if you still encounter this problem after you install all the required packages.
make: *** [Autoconfig] 错误 1
# 原因:路径/usr/src/kernels/3.10.0-1160.el7.x86_64不存在
[root@gpfs 3.10.0-1160.el7.x86_64]# ll /lib/modules/3.10.0-1160.el7.x86_64
total 3300
lrwxrwxrwx.  1 root root     39 Aug 31 08:35 build -> /usr/src/kernels/3.10.0-1160.el7.x86_64
.....
[root@node1 src]# wget http://mirror.centos.org/centos/7/os/x86_64/Packages/kernel-devel-3.10.0-1160.el7.x86_64.rpm
[root@node1 src]# rpm -Uvh kernel-devel-3.10.0-1160.el7.x86_64.rpm --force

       问题二:

In file included from /usr/include/sys/ioctl.h:26:0,
                 from /usr/lpp/mmfs/src/gpl-linux/lxtrace.c:61:
/usr/include/bits/ioctls.h:23:24: 致命错误:asm/ioctls.h:没有那个文件或目录
 #include <asm/ioctls.h>
                        ^
[root@node1 src]# find /usr/src/kernels/3.10.0-1160.el7.x86_64 -name "ioctls.h"
/usr/src/kernels/3.10.0-1160.el7.x86_64/arch/x86/include/uapi/asm/ioctls.h
/usr/src/kernels/3.10.0-1160.el7.x86_64/include/uapi/asm-generic/ioctls.h
[root@node1 src]# rm -rf /usr/include/asm/ioctls.h
[root@node1 src]# ln -s /usr/src/kernels/3.10.0-1160.el7.x86_64/arch/x86/include/uapi/asm/ioctls.h /usr/include/asm/ioctls.h

       问题三:

kdump-kern.o:在函数‘GetOffset’中:
kdump-kern.c:(.text+0x15):对‘__x86_return_thunk’未定义的引用
kdump-kern.o:在函数‘KernInit’中:
kdump-kern.c:(.text+0x1a5):对‘__x86_return_thunk’未定义的引用
kdump-kern.o:在函数‘GenericGet’中:
kdump-kern.c:(.text+0x348):对‘__x86_return_thunk’未定义的引用
kdump-kern.c:(.text+0x35e):对‘__x86_return_thunk’未定义的引用
kdump-kern.o:在函数‘tiInit’中:
kdump-kern.c:(.text+0x3bc):对‘__x86_return_thunk’未定义的引用
kdump-kern.o:kdump-kern.c:(.text+0x445): 跟着更多未定义的参考到 __x86_return_thunk
collect2: 错误:ld 返回 1
make[1]: *** [modules] 错误 1
make[1]: 离开目录“/usr/lpp/mmfs/src/gpl-linux”
make: *** [Modules] 错误 1
vim /usr/lpp/mmfs/src/gpl-linux/kdump.c
# 在122行添加内容
unsigned long __x86_return_thunk;

       问题四:

kdump-kern.o: In function `GetOffset':
kdump-kern.c:(.text+0x9): undefined reference to `page_offset_base'
kdump-kern.o: In function `KernInit':
kdump-kern.c:(.text+0x58): undefined reference to `page_offset_base'
collect2: error: ld returned 1 exit status
make[1]: *** [modules] Error 1
make[1]: Leaving directory `/usr/lpp/mmfs/src/gpl-linux'
make: *** [Modules] Error 1
vim /usr/lpp/mmfs/src/gpl-linux/kdump.c
# 在122行添加内容
unsigned page_offset_base;

配置 GUI 账户

创建admin账户,并添加到Administrator和SecurityAdmin组中

/usr/lpp/mmfs/gui/cli/mkuser admin -g Administrator,SecurityAdmin

之后输入两次密码,例如:admin001,在浏览器中可以通过 http://192.168.1.101 访问GUI界面

注:GUI界面的使用不在本实验演示范围,接下来请回到命令行界面继续实验

为CES服务修改 Hosts 文件

注意:该步需要在所有节点执行

在所有节点的hosts文件中,写入CES的IP地址

Tips:Cluster Export Services(CES)可以提供高可用的文件和对象服务,包括NFS、SMB和Object

echo "192.168.1.104 ces104.cscdemo.cn ces104">>/etc/hosts
echo "192.168.1.105 ces105.cscdemo.cn ces105">>/etc/hosts
echo "192.168.1.106 ces106.cscdemo.cn ces106">>/etc/hosts

添加协议服务节点并查看

配置gpfs101/gpfs102/gpfs103为协议服务节点

./spectrumscale node add gpfs101 -p
./spectrumscale node add gpfs102 -p
./spectrumscale node add gpfs103 -p
./spectrumscale node list

分配CES协议服务IP地址

./spectrumscale config protocols -e 192.168.1.104,192.168.1.105,192.168.1.106

配置cesShareRoot

其中参数-f表示放置的文件系统,-m表示挂载路径

./spectrumscale config protocols -f gpfs -m /gpfs

配置开启NFS和SMB服务协议

./spectrumscale enable nfs
./spectrumscale enable smb

检查协议配置信息

./spectrumscale deploy --precheck

部署协议服务

部署包括CES,NFS和SMB

./spectrumscale deploy

该命令运行时间较长,请耐心等待10分钟

配置协议服务认证方式

这里采用本地认证方式

/usr/lpp/mmfs/bin/mmuserauth service create --data-access-method file --type userdefined

添加认证用户

注意:该步需要在所有节点执行

创建本地用户,下面创建了 cscdemo 用户并且输入password作为密码

useradd cscdemo
/usr/lpp/mmfs/bin/smbpasswd -a cscdemo

发布SMB共享目录

创建smbshare1目录,给 cscdemo 用户设置该目录权限,并发布共享

mkdir /gpfs/smbshare1
chown cscdemo /gpfs/smbshare1
/usr/lpp/mmfs/bin/mmsmb export add smbshare1 /gpfs/smbshare1

访问SMB目录

在桌面右上角选择 Applications -> File Manager

然后输入smb://192.168.1.104/smbshare1  回车

(请等待几秒钟,回车一次就好,待弹出对话框)

选择 Connect as user ,输入用户名(Username):cscdemo ,

密码(Password):password 点击 Connect在打开的目录中,尝试创建任何文件或目录,返回gpfs101的/gpfs/smbshare1可以查看到

如有相关问题,请在文章后面给小编留言,小编安排作者第一时间和您联系,为您答疑解惑。

    推荐阅读   

121a2ec46d162f8cbcf901e4749f3b2a.png

c845282cd70bbcefc4b1bb3e1145c3df.png

    推荐视频    

### 回答1: GPFS 文件系统商业版是一种高级文件系统软件,它是IBM公司的产品。它为企业机构提供了高度可扩展、高性能、高可用性的存储解决方案,支持各种不同形式规模的数据存储需求,包括数据分析、大规模文件共享、高性能计算等。 GPFS 文件系统商业版的主要特点如下: 1. 高可用性: GPFS可以在存储介质、节点、网络等各个层次提供容错机制,保证数据的安全性连续性。 2. 高扩展性: GPFS可以支持从几个节点到上万个节点的扩展,由于其分布式架构,可以容易扩展处理能力、存储能力吞吐量。 3. 高性能: GPFS 采用了并行 I/O、缓存区共享、快速恢复、数据分配优化等技术,能够以最大限度发挥硬件设备的性能。 4. 适合大数据: GPFS可以应对超大数据集,直接管理多 PB 级别数据,支持并发访问,快速存取。 GPFS 文件系统商业版具有许多重要的应用,包括科学研究、金融业、医疗保健、大规模互联网服务等领域。不管是在何种领域,相比于传统的文件系统GPFS 文件系统商业版都具有更出色的特性能力,可以有效地解决多种数据存储的需求。 ### 回答2: GPFS是一种高性能并行文件系统,具有高度可扩展性可靠性。它是IBM建造的。它被广泛用于大型数据中心,高性能计算大数据分析场景,比如搜寻引擎、云存储、视频流处理等。 GPFS商业版提供完整的支持保证,用户可以通过向供应商购买服务获得支持,包括技术支持更新、咨询服务等。商业版提供高质量、可靠的服务功能,比如完善的备份恢复机制、数据管理监控等。此外,GPFS商业版提供了更多的安全性数据保护功能,用户可以选择不同的存储策略来满足自己的需求。 商业版GPFS也提供了更高的性能,比如更高的带宽、更快的数据读写、更低的延迟等。它还支持多个操作系统硬件平台,包括Linux、UNIXWindows等。它能够处理大量的并发读写请求,同时支持多个客户端,保证了系统的可用性可靠性。 总之,商业版GPFS是一种高度可靠、可扩展高性能的文件系统,适用于大量数据处理运行强大的应用程序的场景。它提供更多的安全性数据保护功能,并能够满足客户的各种需求。 ### 回答3: IBMGPFS文件系统是一个高度可扩展的文件系统,可用于解决大型数据集管理问题。商业版提供了更加稳定、可靠的支持,同时也提供了更多的高级功能,如数据压缩、加密、数据分块、数据快照等。 GPFS文件系统的商业版还支持多种存储平台,包括IBM Spectrum ScaleIBM Elastic Storage Server、IBM Storage Systems等,这使得GPFS文件系统的商业版能够更加灵活、适应不同的企业需求。 与开源的文件系统相比,GPFS文件系统的商业版也提供了更加优秀的数据完整性保护数据安全性保障。商业版的GPFS文件系统还具有更加友好的用户界面更加详细的文档说明,用户能够更加快速、准确地了解使用文件系统。 总的来说,GPFS文件系统商业版是一款功能全面、性能卓越、可靠稳定、丰富灵活的文件系统,能够满足企业在数据处理方面的需求,并提供强大的数据保护安全控制。它也是数据管理领域中的重要工具之一,为数据管理分析领域的专业人士提供了强有力的支持。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值