vplex 链路切换原则
- 格式:docx
- 大小:15.08 KB
- 文档页数:2
主流存储双活架构设计方案对比分析【摘要】本文从方案特点、第三站点仲裁、两地三中心扩展、读写性能、故障转移、双活能力等多个角度,客观地对业界主流存储双活方案进行整体性详细的解析和对比。
双活数据中心解决方案指两个数据中心均处于运行状态,可以同时承担生产业务,以提高数据中心的整体服务能力和系统资源利用率,实现RPO(Recovery Point Objective),RTO(Recovery Time Objective)严苛的要求,将企业业务系统连续性提升至一个更高的台阶。
目前,端到端双活数据中心解决方案中最核心的技术当属存储双活技术,这也是备受企业关注的双活技术之一,而现有关于存储双活的内容中,普遍都是对存储双活方案的整体概述,以厂商自带的产品为出发点来组织方案内容,很难对企业的存储双活项目实际落地提供有利支持,从而导致项目实施后,容易被厂商绑定。
因此,在本次存储双活方案解析的内容中,笔者将从方案特点、第三站点仲裁、两地三中心扩展、读写性能、故障转移、双活能力等多个角度,公正客观地对业界主流存储双活方案进行整体性详细的解析和对比,涉及华为、EMC、IBM、HDS、NETAPP等五种不同存储厂商的存储双活方案,来帮助企业真正解决存储双活建设的落地难题。
本文将从五种业界主流存储双活方案的方案特点展开解析。
一、华为HyperMetro1、双活方案概述华为存储层双活方案基于OceanStor融合存储系统的HyperMetro特性实现。
HyperMetro采用AA双活架构将两套存储阵列组成跨站点集群,实现数据实时镜像。
两端阵列的双活LUN数据实时同步,且两端能够同时处理应用服务器的I/O读写请求,面向应用服务器提供无差异的AA并行访问能力。
当任何一台磁盘阵列故障时,业务自动无缝切换到对端存储访问,业务访问不中断。
2、方案特点(1)免网关设计:Hyper Metro双活架构无需额外部署虚拟化网关设备,直接使用两套存储阵列组成跨站点集群系统。
EMC VPLEX产品介绍VPLEX产品及功能概述EMC存储虚拟例Plex解决方案用于在数据中心内、跨数据中心和在数据中心之间进行信息虚拟化、访问、共享和迁移。
它是世界上第一个同时提供本地联合和分布式联合的平台。
本地联合提供站点内信息基础架构的透明协作,分布式联合跨远距离扩展两个位置之间的访问能力VPLEX也是一个用于联合EMC和非EMC存储的解决方案。
EMCVPLEX引入了一种新的体系结构,它吸收了EMC在20多年设计、实施和完善企业级智能缓存和分布式数据保护解决方案实践中取得的丰富经验阿扩展、高可用的处理器引擎为基础EMC VPLEX设计为可从小型配置无缝扩展到大型配置。
VPLEX驻留在服务器和异构存储资产之间,使用独特的群集体系结构,该体系结构允许多个数据中心的服务器具有对共享块存储设备的谟!访问权限。
新体系结构的独特特征包括♦横向扩展群集硬件,允许您从小配置开始并以可预知的服务级别逐步扩展;♦高级数据缓存它利用大规模SDRAM缓存提高性能并减少I/O延迟和阵列争用;♦分布式缓存吻合性,可跨整个群集自动执词/O的共享、平衡和故障切换;♦一个统一视图显示跨VPLEX群集的一个或多个LUN(这些群集可以是在同一数据中心内相距几英尺,也可以是跨同步距离,)从而实现新的高可用性和工作负载移置模式。
VPLEX系列包括两个产品VPLEX Local和VPLEX Metro♦VPLEX Local支持本地联合可跨异构阵列提供简化的管理和无中断数据移动;♦VPLEXMetro提供分布式联合能力扩展了同步距离内两个位置间的访问能力.EMC VPLEX系列产品为信息架构架构整合和云计算时代提供了非常广泛的新特性和功能下面将对三种应用场景进行具体分析:♦跨数据中心移动虚拟化的应用程序♦实现跨阵列的不中断应用的数据迁移♦聚合数据中心并提供全天候IT服务将VPlex应用于VMware虚拟化平台EMC VPLEX可提供本地联合和分布式联合这一能力允许单个站点内或跨两个不同地理位置的物理数据元素的透明协作并允许IT管理员打破物理壁垒扩展他们基于VMware的云解决方案。
VTM生产系统存储更换实行方案目录实行过程概述............................................................................................... 错误!未定义书签。
1VTM系统设备接入生产环境............................................................................. 错误!未定义书签。
1.1VTM系统连接示意图........................................................................... 错误!未定义书签。
1.2SAN互换机端口分派示意图................................................................ 错误!未定义书签。
1.3SAN互换机ZONE配置......................................................................... 错误!未定义书签。
通讯规定......................................................................................... 错误!未定义书签。
Zone配置 ....................................................................................... 错误!未定义书签。
2实行前旳准备工作....................................................................................... 错误!未定义书签。
cisco双ISP线路接入,链路自动切换方案最近接到的一个项目,客户总部在惠州,分部在香港,在香港分部设有ERP服务器与邮件服务器,总部出口为铁通10M光纤与网通1M DDN 专线(新增),原总部是用netscreen 防火墙与香港的pix 515作IPsec VPN对接,现客户要求是新增一条网通DDN专线用来专跑ERP 数据业务,就是要求平时总部去分部访问ERP服务器的数据走DDN专线,访问邮件服务器的数据走ipsec VPN,但当这两条链路其中有出现故障中断时,能做到链路自动切换,例DDN专线出现故障,原走这条线路的ERP数据能自动切换到ipsec VPN线路去,如果线路恢复线路又自动切换。
对netscreen 作了研究它是支持策略路由,但好像不支持线路检测(如知道者请提供资料,学习一下)。
为满足客户要求,我推荐用思科1841路由器,思科支持策略路由与线路检测,一直有看过相应的文档,但没实施过,呵呵,终于有机会了。
解方案如下图:IP分配如下:总部IP段为:192.168.1.0/24 网关:192.168.1.111/24netscreen ssg-140 和透明接入,R1配置:FastEthernet0/0 -- 192.168.1.111/24FastEthernet0/1 -- 192.168.2.1/24 (铁通线路 IP 有改^_^)Serial0/0 --- 192.168.3.1/24 (网通线路)PIX 515配置:Ethernet1 (outside) -- 192.168.2.2/24Ethernet0 (inside) -- 192.168.4.1/24R2配置:FastEthernet0/0 -- 192.168.4.2/24FastEthernet0/1-- 192.168.5.1/24Serial0/0 -- 192.168.3.2/24下面只列出重点部分:VPN配置R1----PIX515R1:第一步:在路由器上定义NAT的内部接口和外部接口R1(config)#int f0/0R1(config-if)#ip nat insideR1(config-if)#exitR1(config)#int f0/1R1(config-if)#ip nat outsideR1(config-if)#exit第二步:定义需要被NAT的数据流(即除去通过VPN传输的数据流)R1(config)#access-list 101 deny ip 192.168.1.0 0.0.0.255 192.168.4.0 0.0.0.255 R1(config)#access-list 101 deny ip 192.168.1.0 0.0.0.255 192.168.5.0 0.0.0.255 R1(config)#access-list 101 permit ip any any第三步:定义NAT。
主机存储基础平台数据迁移(存储迁移、数据库迁移、虚拟化迁移)典型问题分析一、存储迁移活动量的问题是针对于不同品牌存储直接的数据迁移,相同品牌存储数据直接的迁移,使用存储虚拟网关利弊等,下面是会员针对此类的问题的解决方法,技巧与相关参考意见。
以下是几个比较典型的问题:V7000和DS8000直接的数据迁移问题?1、不借助第三方工具,可以考虑使用基于系统的lvm mirror,aix linux hp-ux 都支持也可以通过应用本身来做,如oracle的asm。
或者oracle rman的backup as copy 以及db2的重定向恢复(但需要短暂停机时间)。
2、只能基于主机或应用。
如果一定要基于存储做,建议使用svc3、使用svc即可。
但也要有个短暂的停机时间。
使用vdm 或migration都可以4、完全不停业务的话考虑lvm mirror5、如果目前两个环境都是独立使用的情况下,不停机的迁移基本上不可能。
因为不管你怎么做,前端主机都要有一个再识别的过程。
前端加一个SVC可能会比较好。
V7000 这个产品如果用作去充当svc的作用的话,可能在性能上后续会差点意思。
刀箱的盘阵列上的存储数据,迁移到新的存储上方法与考虑?目前刀箱上的磁盘是刀箱本地磁盘还是刀箱通过光纤模块连接的外置存储,这个需要说明一下。
如果是刀箱置硬盘,是否和本地刀片里的磁盘做过mirror。
是否考虑迁移。
是否配置连接存储的光纤模块。
如果是通过光纤模块连接的那也就没什么了,和普通环境一样。
使用LVM 的方式进行迁移。
使用存储网关,迁移同系列存储和异构存储考虑?1、IO 能力:目前来说存储网关产品配合着闪存可以覆盖95%以上的应用,io能力在几年还是可以的。
对于io极为苛刻的场景可以选择其他的具体方案2、扩展能力:很多时候官方产品宣传的很好,比如说我可以支持多少个节点的扩展能力,纵向到什么程度,横行到什么程度。
但我们需要进一步去看拨开宣传华丽的面纱去看技术的实现。
EMC VPLEX 日常操作维护易安信电脑系统(中国)有限公司技术解决方案部C ONTENTS1.状态检查及报修VPLEX的各个重要部件均为冗余设计在某个部件出现故障时VPLEX仍然会持续工作,连接的主机或应用感知不到故障的发生,如果故障不能被及时的发现和维护在冗余的部件出现故障时可能就会导致应用宕机。
VPLEX的日常状态检查是管理员的一项重要工作需要定期或定时进行检查,建议每天至少一次状态检查。
另外EMC建议用户配置ESRS,在设备出现故障时ESRS能够及时通知到EMC 支持中心,支持中心的工程师根据VPLEX日志来决定下一步安排如联系本地工程师到现场进行故障部件的更换或维护并通知到用户。
状态检查包括VPLEX状态和Witness(用在VPLEX-Metro和GEO环境)状态检查。
1.1VPLEX状态检查步骤图形管理界面方式选择Section Hover menus中的System Status,可以看到Vplex的状态。
点击View Status Details查看详细信息命令行方式VPlexcli:/>health-check1.2W ITNESS状态检查步骤图形管理界面方式待续命令行方式待续1.3报修步骤A.准备好VPLEX序列号如何获取VPLEX序列号序列号在安装时实施工程师提供(要求签的安装报告中会有)VPLEX设备上会有序列号标签通过命令或图形管理界面列出序列号B.拨打报修电话报修报修电话800-819-0009 / 400-670-00092.信息收集2.1配置和日志信息收集在报修后EMC 支持工程师会要求用户工程师收集VPLEX的配置和日志信息,收集步骤如下:命令行收集方法:VPlexcli:/>collect-diagnostics --minimum注意:在Metro环境下,两边的management server上都要执行此命令以获取完整信息,但是不要在两边同时执行此命令,即使指定参数local-only。
vplex双活技术原理
VPLEX双活技术主要依赖于其分布式缓存一致性和缓存透写模式。
通过这两种技术,VPLEX能够将所有引擎视为一个统一的引擎来对外服务,并整合所有引擎的缓存为一个统一的内存。
这种设计使得在单一控制器或引擎出现故障时,其负载可以转移到其他引擎和控制器中,从而保证了数据的高可用性和可靠性。
VPLEX双活技术还采用了写透(write-through)的缓存模式。
这意味着VPLEX并没有实际意义上的写缓存,数据写入操作会直接写入后端存储。
只有当后端存储返回写确认后,主机端的写操作才算完成。
这种设计进一步保证了数据的完整性和一致性。
此外,VPLEX双活技术还允许地理上分离的两个数据中心同时进行数据存取,对客户透明,且保证了数据的可靠性和可用性。
利用跨数据中心的存储虚拟化功能和数据镜像功能,结合上层应用集群,可以使两个数据中心都处于运行状态,同时承担相同业务,提高数据中心的整体服务能力和系统资源利用率。
这种设计使得当单数据中心出现故障时,业务可以自动切换到另一数据中心,实现RPO=0,RTO≈0,解决了传统灾备中心不能承载业务和业务无法自动切换的问题。
总的来说,VPLEX双活技术通过其分布式缓存一致性、缓存透写
模式、写透的缓存模式以及跨数据中心的存储虚拟化和数据镜像功能,实现了数据的高可用性、可靠性和一致性,提高了数据中心的服务能力和资源利用率,为企业的业务连续性提供了强有力的保障。
vplex 链路切换原则
VPLEX是一种虚拟化存储解决方案,它允许用户在不同的存储设备之间实现数据的虚拟化和移动。
在VPLEX中,链路切换原则是指在存储网络中切换数据传输路径的规则。
这些规则旨在确保数据的连续性和可靠性,并最大化系统的性能。
首先,VPLEX的链路切换原则包括故障转移和负载均衡。
在发生存储网络链路故障时,VPLEX能够自动切换数据传输路径,以确保数据的连续性和可靠性。
而负载均衡则可以通过动态调整数据传输路径,以最大化系统的性能和资源利用率。
其次,VPLEX链路切换原则还涉及到数据的一致性和完整性。
在切换数据传输路径时,VPLEX需要确保数据在源和目标存储设备之间的一致性,以及在传输过程中的完整性。
这可以通过一系列的数据校验和恢复机制来实现。
此外,VPLEX链路切换原则还考虑了存储网络的拓扑结构和带宽管理。
在切换数据传输路径时,VPLEX会考虑存储网络的拓扑结构,以选择最佳的路径,并且会根据实时的带宽利用情况来进行路径调度,以避免网络拥堵和性能瓶颈。
总的来说,VPLEX的链路切换原则是基于故障转移、负载均衡、数据一致性和完整性、拓扑结构和带宽管理等方面的考虑,以确保
数据的连续性、可靠性和最大化系统性能。
这些原则在实际应用中
需要根据具体的环境和需求进行合理的配置和管理,以发挥VPLEX
虚拟化存储解决方案的最佳效果。