分类: LINUX
2010-07-27 14:03:44
Global File System文件系统
Red Hat Global File System (GFS)是一个开放源代码的,POSIX兼容的Cluster文件系统和卷管理系统,它运行在Red Hat企业Linux上,支持SAN (Storage Area Netowrk)。GFS支持Red Hat 企业Linux支持所有主要服务器和存储设备。它是Linux上的领先的第一个Cluster文件系统,和其它Cluster文件系统相比,GFS有着最强大的功能,广泛的支持和最好的性价比。
Red Hat GFS使运行Red Hat 企业Linux的多台服务器可以同时读写在SAN上的同一个共享文件,提供了更高的文件访问性能,降低了系统的复杂性和数据冗余备份的成本,保证了系统的数据完整性和统一性。 Red Hat GFS具有防止单点失效的高可用功能,可以提供从一台到几百台运行Red Hat 企业Linux的服务器提供服务,同时可以很好地和Linux上的各种应用程序保持兼容,共同工作。
Red Hat GFS和Red Hat企业Linux紧密地结合在一起,可以通过Red Hat Network来进行安装、升级和管理。各种应用程序如Oracle 9i RAC、在Cluster计算环境中的workloads、文件服务、web和邮件服务都可以和Red Hat GFS完美的结合工作并达到更好的性能。
GFS已经集成在Red Hat企业Linux 5的AP版中,客户可能通过AP充分享受到所有GFS的功能。如果在Red Hat企业Linux 5的标准服务器中想运行安装运行GFS,也可能单独采购得到。
通过GFS你可以:
Ø 简单布署你的数据架构
Ø 只需安装应用程序一次,而服务于整个集群系统
Ø 减少数据冗余复制需求
Ø 简单实现备份和恢复任务
Ø 最大限度使用存储资源,最小存储把投资费用
■ 管理整个存储系统做为一个整体
■ 减少数据复制
Ø 可以无缝地扩展集群系统,可以在线增加存储或服务节点
■ 不需要复杂的技术来管理多个分区
■ 增加服务节点只需要一条mount命令就可以完成
Ø 最大提升应用程序的高可用性
Ø Red Hat Cluster Suite 服务组件包含在GFS内
■ 运行在多种平台架构
Ø GFS可以支持x86, AMD64/EM64T, and Itanium平台架构
■ 最大扩展Linux集群文件系统
Ø 可以最大支持到300个节点
■ 紧紧结合Red Hat Enterprise Linux Server
■ 不需要任何补丁,不需要内相似补丁
Ø 是目前唯一的遵循GPL协议的集群文件系统
Ø 完全Posix兼容
Ø 确保应用程序不需要重新编译就可以运行在GFS环境中
随着IT应用的广泛及数据共享访问的需求的增加,Linux的集群技术越来越重要,很多情况下会有多个服务器去同时访问共享数据的需要,一般来说,传统的解决方法都是通过NFS/CIFS等方式来实现,或者是通过数据复制的方法来保证数据的一致性。但是通常情况下随着数据海量的增加及客户端数量的增加, NFS/CIFS的性能会很差,而通过数据复制方式又不能保证数据的实时一致性。为了克服这种弱点,Red Hat 公司提供了自己的解决方案,它通过GFS来共享存储上的同一分区,使服务的各个节点就像访问自己本地文件系统一样,由于采用的是直接的I/O连接和访问方式,大大提升了共享访问同一分区数据的性能。
GFS文件系统通过一个或多个存储单元来构建一个存储池,集群中的节点通过SAN可以连接到指定的存储池,这样每个集群节点就可以通过一个或多个路径把存储池连接到网络应用中,由于存储池连接方式是通过直接I/O连接方式,所以可以大大提升I/O性能。
由于多个集群节点通时访问/读写同一分区/数据,就必顺通过一个或多个管理服务器来保证数据的一致性,在GFS中,管理服务器叫DLM (distributed lock manager),通过DLM可以与每个集群节点心跳通讯,以确保数据完整性,及节点健康性,一旦发现某个节点通讯有问题,它会把该节点从集群中隔离出来,直到该节点重新恢复,才能再加入集群节点中。
考虑到DLM服务器的高可用性,GFS可以设置多个DLM的备份,一旦主DLM发生故障,备份的DLM就可以接管作为主DLM来管理整个GFS。DLM采用对等式的分布式锁技术,确保了更新存储数据上数据时的高效对等性,这就避免了传统的GULM 锁服务器/客户端方式的低效性。
所以从节点到DLM,都可以实现HA的功能 ,就不存在单点故障的问题,可以确保GFS最高程度的高可用性。
GFS文件系统通过一个或多个存储单元来构建一个存储池,集群中的节点通过SAN可以连接到指定的存储池,这样每个集群节点就可以通过一个或多个路径把存储池连接到网络应用中,由于存储池连接方式是通过直接I/O连接方式,所以可以大大提升I/O性能。
GFS vs NFS |
GFS |
NFS |
操作节点扩展性 |
300+ or more |
最多10-20节点,取决于网络带宽 |
性能损耗 |
基于SAN/iSCSI架构可实现实现高性能访问,添加节点同时保证性能线性扩展 |
受限于NFS服务器处理能力,通常4节点开始出现性能瓶颈 |
操作节点带宽 |
光纤4G以上 |
受限于NFS服务器网络带宽,1G或以下 |
POSIX标准支持 |
完全符合POSIX标准技术与常用文件系统实现相同的ACL权限、磁盘限额等功能。 |
受限于NFS权限管理规则,不支持磁盘限额管理 |
架构示例图
架构描述
1、部署专用的文件服务器,并通过GFS集群文件系统进行SAN/iSCSI的存储访问,实现高速的服务器间对同一文件系统的实时文件操作。当文件系统负载增长时可以灵活添加GFS集群文件系统服务器,系统的访问带宽