IBM DS5100的基本内部结构介绍
高可靠性SAN构架设计
光纤交换机Zone的设计和配置(基于IBM Storage Area Network Web Tool)
存储系统Array、LUN的设计和配置(基于IBM System Storage DS Storage Manager)

  示例环境介绍

  在概述部分已经提到,本文主要以VMware vSphere 4.1环境下的DS5100为例来介绍存储的HA架构和配置,下面图1则是的笔者要介绍的虚拟化架构环境SAN组网示意图。


▲图1 SAN网络示意图

  在图1中,在整个架构中包括三种类型的设备,Host Server, SAN Switch和Storage System。Server Group中的Host Server是用于部署vSphere4.1的应用服务器,用于运行所有的虚拟机,每一个Server Group在VMware环境中会配置为一个Cluster,每个Cluster中的所有机器会共享一定的存储空间。上图中的Storage System为这些应用服务器提 供虚拟化需要用的存储空间, SAN Switch则是实现了Host Server和Storage System的连接。为了实现SAN网络上的高可用性,所有的Server和Storage System同时连接两台SAN Switch。在上述的虚拟化环境下, 每个Server Group只连接一个Storage System,Server Group 1/2/3分享Storage System1上面的存储空间,Server Group 4/5/6分享Storage System2上面的存储空间。在后面的组网、架构设计和配置时,会依据这个组网结构为基础进行说明。

IBM DS5100的基本内部结构

  IBM System Storage DS5000系列磁盘存储系统是IBM的中端高性能磁盘存储系统,集成度非常高,从架构上能够支持线性的可扩张性,同时也能够非常容易的根据用户需求来进行负载均衡的定制,来实现高IOPS和MBPs的要求,能够在支持大容量的同时保证优异的性能,非常适合于虚拟化和整合。

   为了有效的提升存储的I/O性能并做到高可靠性,就需要设计一套符合该存储特点的组网模式,因此,我们需要先大概了解一下DS5100的基本内部结构, 在此基础上,便可以设计出能够充分发挥其优势的架构连接模式。如图2所示,DS5100主柜有两个相同的Controller模块,每个 Controller模块有8个磁盘通道端口(红框部分,连接存储扩展柜),共分为4组,每一组的2个端口是通过一个回路开关(loop Switch)来控制的。每个Controller模块还有8个主机连接端口(篮框部分,连接主机或者SAN Switch),这8个主机连接端口由2个主机接口卡提供,每个卡上有4个端口,所有这些端口可以根据需要定制为4GB FC接口或者8GB FC接口。


▲图2 DS5100主机后面板接口示意图

   DS5100的两个Controller模块之间通过内部连接模块连接,能够实现快速有效的控制交互和数据传输。每个Controller模块内部有一 个专有ZIP ASIC芯片,该芯片被设计于专门支持I/O操作,来计算RAID的冗余信息,通过这个芯片来实现基于硬件的奇偶校验计算,这样会比通过软件计算快很多, 这能够有效的保证整个系统的性能。

  图3是DS5100的内部机构示意图,从图中可以看到,每个DS5100 Controller内部的磁盘通道端口模块和主机连接端口模块以Zip Processor模块为枢纽实现了内部连接,在DS5100内部这些通信是通过PCI Express总线来实现的。每个Controller模块的两个主机接口卡提供了8个主机接口,两个4口的4GB FC芯片组来连接磁盘通道接口, 其中一个4口4GB FC芯片组通过回路开关(loop Switch)连接本Controller模块上面的8个磁盘通道接口,另一个4口的4GB FC芯片组连接另外一个Controller模块上面的8个磁盘通道接口。

  同理,另外一个Controller模块上的两个4口4GB FC芯片组也通过回路开关分别连接两个Controller模块上的16个磁盘通道端口。这样,就可以实现每个Controller都可以随时访问16个 磁盘通道端口,每个主机接口通道的数据,都可以通过主机接口卡、Zip Processor模块、4口的4GB FC模块和回路开关来连接所有的磁盘通道接口。DS5100内部的处理芯片会根据各个通道接口的负载、扩展柜的连接情况、LUN的划分情况和数据读写目的 来判断如何进行分流和回路开关的控制,最大程度上实现负载的均衡。


▲图3 DS5100主机内部结构示意图

 高可靠性的SAN架构设计:主机与扩展柜链接

  1.存储系统主机和扩展柜的连接

  通过上一节DS5100的内部结构介绍可以了解到,DS5100有2个Controller,多个内部模块和端口,要实现高可靠性的架构,就必须要充分考虑冗余和负责均衡,即应该把主机通信和存储扩展柜的连接尽量的分布到所有的模块,芯片组和端口。

  在连接磁盘存储扩展柜时,考虑到冗余和负载均衡, 每个扩展柜都要同时连接Controller A和Controller B。同时考虑相邻的磁盘通道端口是通过一个回路开关控制,因此,建议使用如图4所示的配对方式。这样,在只有4个存储扩展柜的时候,可以采用图5所示的连 接方式,可以完全使用所有的内部模块和回路开关模块。当存储扩展柜有8个时候,采用图6所示的连接方式,这样会使用了全部的磁盘通道端口。当扩展柜的数量 大于8个时候,就需要两个或多个扩展柜先串联,然后再按照图6的方式连接到主柜。


▲图4 DS5100存储柜连接配对图


▲图5 四个扩展柜时连接示意图


▲图6 八个扩展柜时连接示意图

高可靠性的SAN架构设计:存储与SAN Switch连接  

  2.存储主机系统和SAN Switch的连接

  在图1所示的组网示意图中提到,该环境里面是有两套存储系统和两个SAN Switch,每个存储系统将会支持3个Server Group.为了实现高可用性和负载均衡,两个DS5100主机需要同时连接两个SAN Switch。考虑到在可能的SAN Switch损坏或者某个Controller损坏的情况下还能够实现一定的负载均衡, 建议采用如图7所示的连接方式,每个Controller的两个主机接口模块分别连接不同的SAN Switch,即两个Controller的1~4号主机连接端口连接到SAN Switch1, 5~8号主机连接端口连接到SAN Switch2。在这种情况,若任何一个SAN Switch损坏,DS5100的Controller A和Controller B还是能够有效的进行负载均衡;若DS5100的任何一个Controller损坏,两个SAN Switch也能够进行负载均衡。极端情况下,任何一个SAN Switch和一个Controller同时损坏的情况下,还是能够实现Host Server到DS5100存储系统的路径可达。

  为了便于理解,在图7仅仅列出一个DS5100和2台Host Server跟SAN Switch的连接方式, 第二个DS5100和其他所有的Host Server也采用类似的方式同时连接。

  SAN Switch的选择:在保证系统接口速度满足的基础上,要保证有足够的端口数,连接两个DS5100总共需要16个端口,连接Host Server时,每个Host Server只需要一个端口。


▲图7 SAN Switch组网示意图(1个DS5100和部分host Server)

  3.Host Server和SAN Switch的连接

   同存储主机系统类似,为了保证Host Server的高可用性,每个Host Server都配置了两个HBA光纤适配卡,两个HBA卡分别连接SAN Swith1和SAN Switch2.如图7所示。为了便于在SAN Switch上的配置,也为了便于后期的维护和纠错,建议每个Host Server的两个HBA接口连接到两个SAN Switch的相同编号的接口上。

光纤交换机Zone的设计

  把DS5100和Host Server都连接SAN Switch后,整个SAN网络的物理连接部分基本完成。要实现所有的Host Server能够方便的连接到所需要的存储空间,同时要保证高可靠性和负载均衡,在光纤交换机和存储内部的配置也非常关键,本节先介绍光纤交换机想过的设计和配置。

  1.光纤交换机Zone的设计

   在SAN网络中,Zone是一个非常重要的概念,非常好的设计和配置Zone,能够消除许多潜在的常见问题,同时还能够保证充分发挥系统的性能。FC SWITCH上的Zone功能类似于以太网交换机上的VLAN功能,它是将连接在SAN网络中的设备(主机和存储),逻辑上划到为不同的区域内,使得不同 区域中的设备相互间不能通过网络直接访问,从而实现网络中的设备之间的相互隔离。由于本文描述的场景是用于虚拟化的场景之下,有效的配置Zone还能够在 保障性能的同时减低Host Server上面Multipath的数量,优化Host Server上vSphere的寻址管理能力。

   在这里,我们推荐一个创建Zone的最佳实践,那就是为每一个主机到存储的连接单独创建一个Zone,在图7中可以看到,每个DS5100存储的 Controller A和Controller B分别有4个FC主机接口连接到SAN Switch上,因此,在创建Zone的时候,在SAN Switch上面,我们应该为每个Host创建至少2个Zone,分别连接到相应存储的Controller A和Controller B。 同理,在另外一个SAN Switch上,也为相同的主机建立两个Zone,分别连接到相应存储Controller A和Controller B的另外一组主机接口卡。这种方式,能够实现所有连接的完全隔离,也利于以后出现问题时的排查纠错。

  以图7中的Host Server 1为例,可以分别在两个SAN Switch上创建如表1所示的Zone配置。在不同的应用场景中,也可以根据存储系统接口和Host Server接口的数量来复用存储系统的接口。


▲表1 SAN Switch ZONE配置表(Host Server 1)

   按照这样建立Zone之后,每个Host Server会有4条路径到达存储系统,这4条路径覆盖了Host Server的2个HBA卡,2个SAN Switch和2个Controller的全部4个主机接口卡。 其中每个HBA有两条路径,每个SAN Switch有两条路径,每个Controller有两条路径。在存储系统上,每个4口的主机接口卡上都会有一条路径连接到主机。在这种情况下,即便出现 坏掉一个SAN Switch同时还坏掉一个Controller的极端情况,也能够保证主机和存储数据的连通性。对于其他所有的Host Server,都可以根据上述示例来完成相应的Zone的设计。

 SAN Switch Zone的基本配置

  在完成了Zone的设计后,下面简单介绍一下Zone的创建主要过程,在这里,本文以IBM的24口交换机SAN24B为例来简单说明创建Zone操作步骤。IBM SAN24B光纤交换机的配置工具是基于Web的Storage Area Network Web tool,可以直接通过网络浏览器http连接SAN Switch的IP就可以。 在本节,仅仅列出配置Zone的基本必要操作步骤,具体的操作步骤细节,请参考其他文档。

  步骤1、创建别名

   为了便于管理和后期Zone的创建,我们可以根据SAN Switch上面主机或者存储的连接情况来创建别名,建议以Host Server的名字和Storage System的名字相应端口的名别。这样又有利后面Zone的创建,也利于以后出现问题是错误的排查。创建的过程如图8所示。


▲图8 SAN Switch创建别名步骤示意图

  步骤2、创建Zone

  别名创建好后,就可以根据Zone的设计逐个来创建Zone,创建Zone的时候,要明确每个 host server需要跟哪个DS5100的哪个Controller建立连接。创建过程如图9所示。


▲图9 SAN Switch创建ZONE步骤示意图

  步骤3、创建配置文件并激活Zone

  所有1对1 的Zone都创建完成后,把需要生效的Zone添加到Zone的配置文件中,然后激活这个配置文件,这样我们关于Zone的配置就正式生效了。创建过程如图10所示。


▲图10 SAN Switch创建Zone Config步骤示意图

存储系统DS5100的基本配置设计

  在存储网络环境中,LUN Mapping是和Zone同样重要的一个概念。在多业务系统中,存储上的LUN Mapping或LUN Masking要与SAN Switch上的Zone功能配合起来使用,目的是使用不同的主机只能访问到不同的存储空间。一方面做到存储空间的隔离,同时能够充分利用存储上的空间, 从而更方便的进行存储资源的管理与调配。

  在LUN Mapping之前,Array的划分和Hot Spare Drive的设置也非常重要。尤其在虚拟化环境中,host Server需要持续的跟存储系统进行数据的交换,由于每个Host Server可能会由于用户的需求不同,导致对存储的访问流量不同,为了能够更好的实现高可用性和负载均衡,推荐如图11所示的配置方式。


▲图11 DS5100内部Array和HotSpare设计示意图

  上述配置是在虚拟化环境下常用的一种配置模式,有如下的优势

  ? Hot Spare Drive在每个扩展柜里面预留一个,能够实现在任何一个硬盘损坏的情况下主动进行处理。对于系统管理员来说,可以非常轻松无时间压力的去处理坏掉的硬盘。

  ? 每个Array都跨所有的存储扩展柜,配置RAID5后,基本上所有的数据操作都会把负载分配到所有的扩展柜,这样可以有效的实现各个扩展柜的负载均衡,同时能够有效的均衡不同主机上不同规模的数据读写需求。

  ? 由于所有的Array都跨多个扩展柜,任何一个硬盘损坏或者任何一个扩展柜损坏,都不会影响整个存储系统的数据丢失,保证了高可用性。由于虚拟化环境下,每个存储空间上都可能运行着多个不同的虚拟业务系统,数据的高可靠性就显得更加重要。

   按照图5或者图6所示的组网方式连接存储主柜和扩展柜后,同时按照图11所示的模式来划分Array,则可以在存储系统内部实现有效的负载均衡和性能优 化。如图12所示,假定Controller A的主机连接端口8有1MB的数据流量,这些数据被分成4个256KB的块写到1到4号扩展柜上,同时还有256KB的奇偶校验数据到5号扩展柜上,则如 图12所示,整个1.25MB的数据流量是以5个256KB的流量同时写到5个存储上去的,在实现数据操控的时候,DS5100系统会自动计算尽量通过更 多的端口实现数据的并发操作,这样有效的保证了整个存储系的高可靠性和负载均衡。


▲图12 DS5100端口负载均衡示意图

存储系统DS5100的基本配置步骤

  在完成整个存储系统的Array设计后,就可以开始对DS5100进行配置。 在本文,以IBM公司对DS系列的存储提供了一个专业Client配置工具IBM System Storage DS Storage Manager10为例来简单介绍一些必要的配置过程,其他具体的操作步骤,请参考其他文档。

  步骤1、配置存储的Hot Spare

  Hot Spare硬盘是指该硬盘被 预先插到扩展柜里面,当其他硬盘损坏是能够自动去替换损坏的硬盘,这可以为整个存储系统在出现硬盘故障时提供额外的保护。 如图11所示,考虑到不同扩展柜的数据通信需要通过存储主机,因此,我们建议hot spare drive保护的硬盘尽量在每一个扩展柜的内部,同时考虑到虚拟化环境下存储空间的需求非常大,因此,只在一个扩展柜上指定一个hot spare driver就够了。

  初始配置入口如图13所示,进入配置界面后,选择所有的enclosure的slot16作为hot spare.


▲图13 配置HotSpare基本步骤示意图

  步骤2、配置Array和LUN

   在配置Array和LUN之前,应该确认目前存储系统已经升级了最新的微码,同时所有的Hot Spare已经全部配置完毕。同时,还要完成Array、LUN的设计,以及命名方式和RAID的配置模式。配置过程如图14所示,可以根据设计逐个创建 Array,进入配置界面后,输入Array的名字,选择手工配置Array的模式,然后选择各个enclosure中slot号相同的disk来创建 Array.


▲图14 Array创建示意图

  然后,可以在Array下面创建LUN,为了实现较好的performance,若无特殊容量的逻辑硬盘需求,建议每个LUN的大小等同于单个物理硬盘的大小。

  步骤3、配置主机组

   在vSphere4.1的环境中,为了能够更好的实现资源共享和HA,建议采用Cluster的模式,把几台Host Server放到一个Cluster里面,每个Cluster作为一个Group共享一些相同存储空间。为了实现把LUN能够方便的映射到这个 Server Group上面,需要在存储上面配置Host Group,如图15所示,创建Host Group之后,逐一添加每个Host的两个HBA 卡的port identifier。为了便于配置工作,建议在Storage配置之前,预先准备好所有Host Server的HBA WWPN地址。


▲图15 配置Host Group示意图

  步骤4、Mapping LUN到主机

   配置完Host Group,同时完成Array和LUN的创建之后,就可以Mapping LUN到相应的主机了。在进行该配置之前,一定要根据每个Server Group里面VM的数量需求和硬盘需求预先计算好需要的存储空间,完成LUN和Server Group的对应关系设计。设计完成后,可以如图16所示,进行LUN到Host Group的Mapping。Mapping完成之后,同时确认SAN Switch上面Zone正确的配置并激活了,那么所有的Host Server便可以实现到相应存储空间的正常访问了。


▲图16 Host Group的LUN Mapping示意图

总结及作者简介

  本文介绍了在企业级虚拟化环境中部署存储系统时,如何根据存储系统的结构特点来设计SAN网络的构架和配置,来实现整个存储系统的高可靠性和负载均衡,从而为整个企业级虚拟化平台的高质量的可靠服务奠定基础。本文从SAN的架构设计,SAN Switch的设计和配置,存储系统内部Array的设计和配置等多个层次,充分考虑和设计了高可靠性和负载均衡,并能够在一个SAN Switch、一个存储Controller和一个存储扩展柜失效的极端情况下实现正常的数据访问。

  本文通过分析了IBM DS5100存储系统的基本结构,给出了一套最佳实践的SAN HA架构连接,该架构连接能够均衡的发挥DS5100的所有的内部模块和接口模块,实现了架构层面的高可靠性和负载均衡。同时以IBM的SAN24B光纤交换机为 例,介绍了如何进行Zone的设计和配置,一方面实现了不同主机到存储系统访问的隔离,同时也实现了SAN网络连接的HA,并保证了SAN Switch各个端口的负载均衡。在DS5100的内部配置部分,介绍了如何进行Host Spare和Array的设计和配置,并给出了主要的配置步骤,实现了存储数据层面的高可靠性和负载均衡。

  作者简介:

  
▲吴金强,云架构设计工程师

  任职于某大型外资IT企业,从事企业云架构设计,具有丰富的IT架构和虚拟化经验,熟悉主流的虚拟化技术,熟悉IBM的服务器和磁盘存储产品。


▲周铁砚,存储工程师

  任职于某大型外资IT企业,是一位存储工程师,专注于虚拟化方向、存储、Linux、开源软件,曾在多个行业中任职。


▲王益斌,系统架构师

  任职于某大型外资IT企业,从事信息技术服务工作。熟悉IBM System x系列服务器,IBM Power System系列服务器,IBM DS系列存储器产品;熟悉IBM DB2数据库,熟悉IBM WAS应用服务器,熟悉IBM ITM监控管理平台。负责规划、设计和部署企业云计算平台环境。

更多精彩内容请关注:
IBM存储化官方微博
IBM存储化官方网站

转载于:https://blog.51cto.com/ibmhome/648823

揭秘虚拟化环境高可靠存储的构架和配置相关推荐

  1. 虚拟化环境高可靠存储的构架和配置

    摘要:在IT技术快速发展的今天,虚拟化技术日趋成熟,由于其在资金节省和IT效率提高上的优势日益明显,越来越多的企业也开始部署虚拟化平台.在企业环境中部署虚拟化平台的存储系统时,在考虑到性能的同时,还要 ...

  2. 云计算虚拟化环境下的安全防护

    转载自(比特网):http://www.chinabyte.com/114/12243614.shtml 云计算虚拟化环境下的安全防护 2012-01-13 15:03 比特网 H3C 关键字:网络管 ...

  3. 群雄逐鹿试锋芒:中国高端存储市场十年史话

    白驹过隙.时光荏苒,高端存储距今已走过四十余载. 作为全球数据存储产业皇冠上的明珠,高端存储以极高的技术含量而著称,代表着一家存储厂商的最高水准,也是所有存储厂商都向往的顶级舞台. 如果说前三十年的高 ...

  4. GaussDB(for MySQL)如何在存储架构设计上做到高可靠、高可用

    摘要: GaussDB(for MySQL)通过ND算子下推解决存储节点和计算节点之间的传输速度,减少网络开销这个难题. 数据库作为高效稳定处理海量数据交易/分析的坚强数据底座,底层架构设计的重要性不 ...

  5. 高可靠环境 FileNet 系统介绍和应用实例

    罗锐, 软件工程师, IBM 孙锋, 软件工程师, IBM 狄浩, 软件工程师, IBM 简介: 本文介绍 FileNet P8 的高可靠环境(High Availability)理论知识,并介绍了一 ...

  6. 海量、安全、高可靠的华为云对象存储服务OBS,助力企业数据存储降本提效

    在信息化.数字化时代,企业的数据量日渐增长,对存储的需求也在不断变化,企业自建存储服务器受限于搭建存储服务器时使用的硬件设备,如果存储量不够,需重新购买存储硬盘,进行人工扩容,而且人力物力成本较高,为 ...

  7. 压力测试 闪存_产品评测 | HPE Nimble AF全闪存系列,诠释真正的高端存储

    随着AI.互联网.大数据等技术快速发展,企业对存储设备的需求已踏上一个更高的级别,高性能.低延时.大容量等多种需求的应用场景愈发常见,在这种情况下,寻求能够满足相应工作负载能力的存储设备已成为企业IT ...

  8. 虚拟化环境下,如何高效开展勒索病毒防护加固?

    本文重点 近些年,勒索病毒攻击事件频发,由于其"难发现.难阻止.难破解"的特点,不少用户--尤其是使用虚拟化的金融.医疗.制造.公共服务等重要行业用户--已遭受严重数据与经济损失. ...

  9. 浅析单一冗余校验RAID缺陷--云存储环境下IP存储设备组建策略

    浅析单一冗余校验RAID缺陷--云存储环境下IP存储设备组建策略 前面的话 摘要 一.当前常见阵列组建模式及云存储环境下IP存储设备特点 1.只求容量及读写性能的RAID0: 2.为了数据安全宁可牺牲 ...

最新文章

  1. MAKEWPARAM 宏 及MAKELONG ,MAKELPARAM,MAKELRESULT
  2. nginx源码分析(5)——监听socket初始化
  3. java wcf_尝试将WCF映射到Java术语
  4. 腾讯视频下载转mp4_腾讯视频如何上传自己的视频
  5. 服务器系统怎么找便签,Win10电脑怎么找回便签记录?如何恢复误删的内容?
  6. 架构设计的立方体扩展
  7. 2022年湖南省自考考试幼儿园教育活动设计与组织练习题及答案
  8. libxml2生成,解析,修改xml文件,以及使用实例
  9. 自动解锁Bitlocker加密硬盘
  10. 《云计算服务安全能力要求》与《云计算服务安全指南》标准
  11. Oracle EBS GL日记账批“选定以过账”状态数据修复
  12. 区分Linux中的“根目录”和“家目录”
  13. 【搜集】AE滤镜大全
  14. qsv的像素格式转换
  15. LJP Little John PalmOS 1.0 Release 最新版 (RC9后的正式版)
  16. H5 - HTML5新增标签
  17. 智能井盖安全监测系统,提高城市井盖安全性
  18. 实施CMMI具体要做什么——点评
  19. 腾讯QQ Web Service 接口
  20. 15-Figma-布局约束和栅格

热门文章

  1. 【三石jQuery视频教程】01.图片循环展示_再次重发
  2. 洛谷 P3373 线段树2
  3. PDF文件转换文件格式
  4. js中excel模板下载
  5. Quartus 调试中的Nios 程序
  6. 服务器kvm切换器维修,服务器数字KVM切换器
  7. 医院挂号小程序,预约挂号小程序,微信小程序医院预约挂号系统毕业设计作品
  8. 如何写工学硕士学位论文
  9. 手把手教您国外如何充值支付宝/微信教程
  10. 移动游戏防作弊攻防战