深入剖析Vplex双活数据中心存储方案
- 格式:doc
- 大小:318.71 KB
- 文档页数:10
vplexvnx方案第1章IT建设方案说明1.1服务器部分说明数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。
应用服务器采用3台X3650M4服务器。
1.2存储部分说明新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。
采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。
1.3存储高可用说明配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。
并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。
第2章IT存储系统详细设计2.1存储基础架构图2.2核心存储设计针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。
VNX是EMC新一代的中端存储产品,它将Celerra (NS) 和 CLARiiON (CX4) 统一到单个产品品牌中,将 Celerra 和 CLARiiON 的所有价值推广到VNX 系列的客户。
它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。
VNX 系列在效率、简洁性和性能上有巨大的进步。
VNX 建议配置如下:VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。
配置图形化管理软件Unisphere。
配置说明:使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。
用VPLEX构建双活数据中心概要
通过VPLEX Metro提供的分布式联合能力,扩展了同步距离内两个位置间的访问能力。
VPLEX Metro 利用AccessAnywhere支持跨远距离共享、访问单个数据拷贝。
实现主备主机同时访问同一套卷的愿望,也就是所谓的“双活”架构,如下图所示:
◆通过主机集群技术和数据集群技术实现两台主机同时访问一套
卷,并协调I/O之间的锁机制。
◆该卷是由VPLEX Metro创建的共享卷,可以被生产主机和备份主
机同时读写。
◆来自应用的I/O访问的负载平衡和一致性关系由主机集群和数据集
群来控制。
◆两个VPLEX之间的存储缓存的一致性是由VPLEX的独特的缓存
一致性功能来保证的。
◆两台主机共用的虚拟卷是基于VPLEX的分布式镜像卷创建的,在
主备站点的数据是镜像关系,完全一致。
在生产主机正常进行读写的同时,备份主机可以接受只读I/O请求,而且从备份主机读出来的数据是实时更新的生产数据。
存储双活方案1. 背景介绍随着企业和组织对数据的高可用性和容灾性需求增加,存储双活方案逐渐成为一种常见的解决方案。
存储双活方案可以有效地消除单点故障,提供数据的高可用性和业务的连续性。
在本文档中,我们将介绍存储双活方案的概念、原理和常见实现方式。
2. 存储双活方案的概念存储双活方案是一种通过在不同地理位置部署两个或多个存储系统,并通过数据同步和数据复制实现数据的高可用性和容灾性的技术方案。
它可以消除单点故障,并提供数据的实时备份和异地容灾能力,确保业务连续性。
3. 存储双活方案的原理存储双活方案的原理基于数据的同步和复制。
一般来说,存储双活方案包括两个主要组件:活动数据中心和备份数据中心。
活动数据中心负责处理业务请求,并将数据同步到备份数据中心。
备份数据中心则用于备份数据,并在主数据中心故障时接管业务请求。
在存储双活方案中,数据同步是实现数据一致性的关键。
常见的数据同步方式包括同步复制和异步复制。
同步复制是指在数据写入前必须同步到备份数据中心,确保数据的实时一致性。
而异步复制则是数据写入后异步地进行复制,可能会存在一定的数据延迟,但具有更高的性能和容错能力。
4. 存储双活方案的实现方式存储双活方案可以通过不同的技术和架构来实现。
下面介绍几种常见的实现方式:4.1 数据镜像数据镜像是一种常见的存储双活方案实现方式,它通过将活动数据中心的数据实时镜像到备份数据中心,确保数据的高可用性和容灾性。
数据镜像可以通过同步复制或异步复制实现,具体的实现方式可以根据需求和系统的特点进行选择。
4.2 数据切换数据切换是另一种常见的存储双活方案实现方式,它通过将业务请求从活动数据中心切换到备份数据中心,实现业务的连续性。
数据切换可以通过手动切换或自动切换来实现,自动切换通常依赖于监控系统和故障检测机制。
4.3 故障转移故障转移是存储双活方案的一种重要组成部分,它是指在主数据中心故障时自动切换到备份数据中心,以确保业务的连续性。
vplex 运维及异构存储双活使用
实例技术手册
Vplex 运维及异构存储双活使用实例技术手册是一份详细介绍 Vplex
集群组件、硬件架构、存储卷、双活技术和逻辑封装流程等内容的文档。
以下是该手册的核心内容:
1. Vplex 集群组件和硬件架构:Vplex 集群组件都会预安装在DellEMC 机架上,其硬件架构的高可用性体现在以下的方面:
引擎:每个引擎都包含两个独立的控制器。
I/O 模块:每个控制器安装了四个 FC I/O 模块,分为两个前
端模块(连接主机)和两个后端模块(连接存储);另外还有两个
I/O 扩展模块,用于控制器间的数据路径和通信。
备用电源:每个引擎由一个 SPS 提供后备电源,在电源故障时
允许进行写缓存,防止数据丢失。
SAN 交换机:配置了两个 SAN 交换机用于集群内部控制器之间
的连接。
UPS:配备了 UPS 以避免短暂断电带来的业务停顿风险。
2. 存储卷:Vplex 的存储卷是通过 claim 存储阵列中的 LUN 生成的。
每个存储卷都可以被映射到一个或多个虚拟卷,只有虚拟卷才可以被
给前端主机访问。
其中有一种 Distributed 的方式,它是由不同集群的 Device 组成的。
3. 双活技术:Vplex 双活技术可以实现在多个站点间同时读写数据,以提高系统的可用性和性能。
同时,它还可以实现容灾和恢复功能,确保数据的完整性和可靠性。
4. 逻辑封装流程:在 VPLEX 存储纳管之后,还需要按照特定的逻辑封装流程来完成。
其中包括创建 extent、创建 device 和创建virtual volume 等步骤。
2016年3月目录1.项目实施内容 (5)1.1存储系统架构示意图 (6)1.3本项目设备硬件配置 (6)2.存储系统实施基础配置 (7)2.1双活数据中心存储实现模式 (7)2.2光纤通道交换机端口连接表 (8)2.3VPLEX端口作用描述 (9)2.4VPLEX端口的使用 (9)2.5存储设备线路连接描述 (9)2.6存储设备端口命名规则 (10)3.SAN存储规划 (10)3.1存储设备连接线缆数量及种类 (10)3.2存储设备IP地址配置 (11)3.3VPLEX的端口连接配置 (11)4.VPLEX METRO实施步骤 (12)4.1VPLEX前期准备 (12)4.1.1 system volumes (12)4.2S WITCH ZONING (13)4.3B ACKEND STORAGE PROVISIONQ (13)4.4VPLEX INITIAL SETUP (13)4.4.1 Configip address and hostname of VPLEX (13)4.4.1.1 Connect to management server (13)4.4.1.2 entering the VPLEXCLI (14)4.4.1.3 set the management server ipaddress (14)4.4.1.4 change the hostname of VPLEX (14)4.4.1.5 check software version (14)4.4.2 use EZ-setup to initialize the VPLEX1 (15)4.4.2.1 Start EZ-setup (15)4.4.2.2 Configure the first cluster (15)4.4.2.3 Chose the local authentication (15)4.4.2.4 Configure event notification (15)4.4.2.5 Configure send system report to EMC (16)4.4.2.6 Configure performance statistics collector (16)4.4.2.7 Generate the certificate (16)4.4.2.8 Backend storage discovery (17)4.4.2.9 create meta-data volume (17)4.4.2.10 verify if meta-data volume is successfully created (18)4.4.2.11 create meta-data volume backups (18)4.4.2.12 enable FE port (18)4.4.3 use EZ-setup to initialize the VPLEX2 (18)4.4.3.1 Connect to VPLEX2 (18)4.4.3.2 Sychronize the time on the clusters (18)4.4.3.3 Start EZ-setup on cluster2 (19)4.4.3.4 Configure the Meta-data volume and backup of VPLEX2 (19)4.4.3.5 Complete configuration of cluster1 (19)4.4.3.6 Complete configuration of cluster2 (19)4.4.4 Join the clusters (19)4.4.5 Create logging volumes (20)4.5C HECK THE CLUSTER HEALTH (21)4.6VPLEX BACKEND STORAGE CONNECTIVITY VERIFY (21)4.7C LAIM THE DA TA VOLUME (21)5.ISILON的实施步骤 (23)5.1集群初始化 (23)5.2节点加入 (37)5.3系统健康检查 (38)5.4O NE FS升级 (38)5.5安装补丁包 (38)5.6系统微码升级 (38)5.7硬盘微码升级 (38)5.8管理界面登录 (39)5.9保护级别设置 (39)5.10网络设置 (40)5.10.1 内网设置 (41)5.10.2 外网设置 (41)5.11目录认证服务 (41)5.12SMB共享规划 (41)5.13NFS共享规划 (43)6DATADOMAIN配置步骤 (45)6.1D A TA D OMAIN配置之前实施内容 (45)6.2D A TA D OMAIN VTL配置 (46)7存储设备的使用示范 (55)7.1操作流程 (55)7.2操作示例 (56)7.2.1 光纤交换机操作部分 (56)7.2.2 EMC VNX7600操作部分 (59)7.2.3 VPLEX 操作部分 (62)1.项目实施内容XX公司双活数据中心灾备项目采用EMC VPLEX METRO解决方案,实现院区主机房和灾备机房容灾。
VPLEX实现双活数据中心系统宕机时间趋近于0客户证言:“我们对跟EMC公司的合作非常满意。
EMC公司提供的解决方案,其效果大大超过了我们的预期,让我们发现,云数据中心其实离我们很近。
目前,我们有80%的应用都已经运行在双活数据中心。
很快,我们将把全部应用都迁移到双活数据中心。
”——大连某日资公司首席信息官山浦先生背景和需求某公司是在大连经济技术开发区设立的日本独资制造企业。
该公司的IT系统与日本总部直接连接,每天将产品订单传到总到审核,获得生产许可后,将订单下发到生产车间生产。
因此,IT系统的容灾整个企业的生产运行至关重要。
此前,该公司只有一个数据中心。
如果数据中心发生问题,可能导致订单无法确认,造成生产停顿,给公司带来经济损失。
2011年初,该公司计划在园区内另建容灾机房,希望能够做到,故障恢复目标RPO=0,即0数据丢失,故障恢复时间目标RTO=1小时,即1小时保证恢复故障。
双活数据中心颠覆容灾概念EMC与另外两家厂商一起,参与了这一项目的方案讨论。
在了解客户需求时,EMC 工程师欣喜地发现,该公司的所有业务系统都运行在VMware虚拟化平台,满足了双活数据中心的重要条件。
根据EMC全球的最佳实践,推荐实施双活数据中心的两个应用场景:一个是全虚拟化环境;一个是读多写少的数据库环境(查询类应用)。
该公司正是前一种环境。
实施双活数据中心,是对传统容灾概念的颠覆。
传统的容灾中心有主有备。
从主数据中心切换到备份数据中心,因为切换需要手动操作,一定会有停机时间。
该公司的需求为RTO=1小时,就是为这一时延留出的时间。
在双活数据中心,虚拟机从一个中心切换到另一个中心的时间接近于零。
例如,用VMware高可用软件HA,虚拟机的重启时间为3毫秒,终端用户几乎感受不到时延。
也就是说,可以实现RTO=0。
该公司欣然接受了EMC建立双活数据中心的解决方案。
新机房与原机房距离1公里,通过光纤直连。
总共有40至50台虚拟机,每个中心4台ESX服务器,实现负载均衡。
存储双活解决方案
《存储双活解决方案》
在当今数字化时代,数据的存储和管理变得愈发重要。
对于一些关键业务系统来说,数据的高可用性和可靠性更是至关重要。
因此,存储双活解决方案应运而生。
存储双活解决方案是一种数据备份和存储技术,旨在确保数据的高可用性和冗余备份。
它通过同时运行两个相同的存储系统,并确保它们实时同步,以便在一个存储系统发生故障时,另一个存储系统可以立即接管并继续提供服务。
这一解决方案可以有效地避免数据丢失和系统停机的风险,为关键业务系统提供了强大的数据支持。
存储双活解决方案的实现有多种方式,包括硬件水平的双活和软件水平的双活。
硬件水平的双活解决方案通常涉及使用多个存储设备,并通过专门的硬件设施确保数据的同步和切换。
而软件水平的双活解决方案则更多地依赖于相关的存储管理软件和技术来实现。
存储双活解决方案的实施需要仔细规划和设计,以确保系统的稳定性和可靠性。
此外,对于一些行业和领域来说,如金融、医疗和电信等,存储双活解决方案更是必不可少的。
因为在这些领域,即使是一点数据的丢失或系统停机也可能带来严重的后果。
总的来说,存储双活解决方案是一种高效的数据备份和存储技
术,可以为关键业务系统提供强大的数据支持和保护。
它的实施需要充分的规划和设计,但一旦实现,将为企业带来高可用性和冗余备份的数据保障。
vplex双活技术原理
VPLEX双活技术主要依赖于其分布式缓存一致性和缓存透写模式。
通过这两种技术,VPLEX能够将所有引擎视为一个统一的引擎来对外服务,并整合所有引擎的缓存为一个统一的内存。
这种设计使得在单一控制器或引擎出现故障时,其负载可以转移到其他引擎和控制器中,从而保证了数据的高可用性和可靠性。
VPLEX双活技术还采用了写透(write-through)的缓存模式。
这意味着VPLEX并没有实际意义上的写缓存,数据写入操作会直接写入后端存储。
只有当后端存储返回写确认后,主机端的写操作才算完成。
这种设计进一步保证了数据的完整性和一致性。
此外,VPLEX双活技术还允许地理上分离的两个数据中心同时进行数据存取,对客户透明,且保证了数据的可靠性和可用性。
利用跨数据中心的存储虚拟化功能和数据镜像功能,结合上层应用集群,可以使两个数据中心都处于运行状态,同时承担相同业务,提高数据中心的整体服务能力和系统资源利用率。
这种设计使得当单数据中心出现故障时,业务可以自动切换到另一数据中心,实现RPO=0,RTO≈0,解决了传统灾备中心不能承载业务和业务无法自动切换的问题。
总的来说,VPLEX双活技术通过其分布式缓存一致性、缓存透写
模式、写透的缓存模式以及跨数据中心的存储虚拟化和数据镜像功能,实现了数据的高可用性、可靠性和一致性,提高了数据中心的服务能力和资源利用率,为企业的业务连续性提供了强有力的保障。
深入剖析Vplex双活数据中心存储方案EMC上一代存储双活方案是通过vPlex网关产品实现,具备异构其他厂商存储的能力,将各厂商存储虚拟化为统一的存储池,为上层服务器提供存储资源。
从2010年vPlex 发布以来其的硬件已经更新了VS1、VS2和VS6三代。
2016年推出的VS6硬件引擎间通过40Gb IB互联(替代FC),在性能上相比VS2硬件提升了2倍、时延下降1/3,并支持更多卷数量。
vPlex6.0 (VS6硬件) 也升级OS至GeoSynchrony6.0针对闪存做了优化。
其双活特性就是通过vPlex Metro的Distributed Device(分布式镜像卷)功能实现,并提供跨站点的双活应用。
vPlex Metro由两套vPlex集群构成,每个站点的vPlex设备都有自己专属的本地存储阵列。
通过创建分布式镜像卷为跨设备的镜像卷,可提供双活访问。
两个站点的vPlex集群各有一个卷,两个卷的ID一样。
在组网上,主机同时连接到两站点的vPlex,两站点的vPlex之间通过FC或10Ge连接,后端阵列只与本地的vPlex连接;vPlex之间和vPlex Witness之间均需要IP网络连接。
vPlex Management Console 是 VPLEX 机柜中的 1U 服务器。
此服务器向vPlex 提供GUI管理界面,在双引擎和四引擎配置中,此服务器由UPS 提供备用电源。
接下来,看看vPlex如何接管外部设备的,外部(包含异构存储)存储把LUN映射给vPlex后,在vPlex上呈现为Storage vol,基于Storage Vol在生产Extents,它可以是Storage Vol的部分或全部(每个Storage Vol最多128个),Extents不能跨Storage Vol,再以Raid的形式组织Extents成Dev(Raid支持0,1和拼接);没有被其他Dev组织的Dev称为Top Level Device,在Top Level Device上创建Virtual volumes提供给主机,并支持在线扩展。
双活存储实施方案一、前言。
随着信息化时代的发展,数据存储需求不断增长,对存储系统的可靠性和稳定性提出了更高的要求。
双活存储作为一种高可用性的存储架构方案,能够有效地保障数据的安全和可靠性。
本文将就双活存储的实施方案进行详细介绍,以帮助广大企业更好地理解和应用双活存储技术。
二、双活存储概述。
双活存储是指在两个数据中心之间进行数据同步,当一个数据中心发生故障时,另一个数据中心可以立即接管服务。
双活存储通过实时数据同步和负载均衡技术,实现了数据的高可用性和容灾能力。
在传统的单活存储架构中,一旦数据中心发生故障,可能会导致数据丢失和服务中断,而双活存储则能够有效地避免这些问题的发生。
三、双活存储实施方案。
1. 网络架构设计。
在双活存储的实施中,网络架构设计是非常关键的一环。
首先需要确保两个数据中心之间的网络连接畅通,并且具备足够的带宽来支持实时数据同步。
其次,需要考虑网络设备的冗余和负载均衡,以保障数据传输的稳定性和可靠性。
最后,还需要对网络进行严格的安全设置,以防止数据在传输过程中遭到攻击和泄露。
2. 存储设备选型。
在双活存储的实施中,存储设备的选型至关重要。
首先需要选择具备高性能和高可靠性的存储设备,以满足实时数据同步的需求。
其次,需要考虑存储设备的扩展性和容量,以应对日益增长的数据存储需求。
最后,还需要对存储设备进行合理的配置和调优,以提升整个系统的性能和稳定性。
3. 数据同步机制。
实时数据同步是双活存储的核心技术之一。
在实施过程中,需要选择合适的数据同步机制,确保数据在两个数据中心之间的同步是实时的、可靠的。
同时,还需要考虑数据同步的冲突处理和版本管理,以避免数据的丢失和不一致。
4. 故障切换策略。
在双活存储的实施中,故障切换策略是非常重要的一环。
需要设计合理的故障切换策略,确保在一个数据中心发生故障时,另一个数据中心可以立即接管服务,避免数据丢失和服务中断。
同时,还需要进行故障切换的测试和演练,以验证故障切换策略的有效性和可靠性。
EMC Vplex双活数据解决方案一、方案目标本方案采用以EMC VPLEX技术为核心的双活虚拟化数据中心解决方案。
EMC VPLEX 产品能够打破数据中心间的物理壁垒,提供不同站点间对同一数据副本的共享、访问及在线移动的能力,结合VMware虚拟化技术及Cisco OTV网络扩展技术,能够实现业务及数据在站点间的透明在线移动,使用户能够在两个站点间动态平衡业务负载,最大限度利用资源,并提供接近于零RTO的高可用能力,是真正意义上的云计算基础架构。
二、方案架构EMC VPLEX双活虚拟数据中心解决方案的构成与功能如下图所示:1)基于EMC VPLEX Metro提供双活虚拟化数据中心解决方案核心功能:2)基于Cisco提供的OTV(Overlay Transport Virtualization)L2 网络延伸技术,从网络层面为虚机在线透明迁移提供条件,及最小化的RTO指标;3)基于VMware虚拟化技术、EMC VPLEX Metro、以及Cisco OTV技术三者的合力实现双活虚拟数据中心4)基于EMC Avamar为双活虚拟数据中心提供完善的数据备份保护5)基于EMC Ionix ITOI(IT Operations Intelligence)产品实现虚拟数据中心的全面集中监控管理三、方案功能3.1 EMC VPLEX方案功能EMC VPLEX 引入了一种新的体系结构,它吸收了 EMC 在 20 年设计、实施和完善企业级智能缓存和分布式数据保护解决方案的实践中取得的经验和教训。
以可扩展、高可用的处理器引擎为基础,EMC VPLEX 系列设计为可从小型配置无缝扩展到中型和大型配置。
VPLEX介于在服务器和异构存储之间,使用独特的群集体系结构,该体系结构允许多个数据中心的服务器具有对共享块存储设备的读/写访问权限。
新体系结构的独特特征包括:- 横向扩展群集硬件,允许您从小配置开始并以可预知的服务级别逐步扩展- 高级数据缓存,它利用大规模 SDRAM 缓存提高性能并减少 I/O 延迟和阵列争用- 分布式缓存吻合性,可跨整个群集自动执行 I/O 的共享、平衡和故障切换- 一个统一视图显示跨 VPLEX 群集的一个或多个 LUN(这些群集可以是在同一数据中心内相距几英尺,也可以是跨同步距离),从而实现新的高可用性和工作负载移置模式。
VPLEX双活数据中心解决方案VPLEX:双活数据中心解决方案在数据中心内部VPLEX Local VPLEX Metro相隔同步距离的FederatedAccessAnywhereVPLEX Geo相隔异步距离的FederatedAccessAnywhere一个、两个或四个引擎VS1VS2Vblock之间的VPLEXVPLEX:为解决今天的IT挑战而生移动性灾难避免数据中心迁移工作负载重新平衡FederatedAccessAnywhere群集A群集B跨远距离移动和重新定位虚拟机、应用程序和数据协作性跨远距离即时和同时访问数据简化工作流FederatedAccessAnywhere实现跨不同位置对数据的并发读/写访问可用性高可用性消除因故障切换所进行的存储操作FederatedAccessAnywhere通过跨不同位置进行镜像,保持可用性和无中断访问群集A群集B群集A群集BVPLEX :横向可扩展、真正的“双活”Director 间通信端口,用于IO 处理和分布式部署4个前端8 Gb/s FC 端口/Director4个后端8 Gb/s FC 端口/Director 分布式缓存保存本地信息利用Fast cache 提升读性能2个四核处理器Host & Array Ports Core Core Core CoreCore Core Core Core Host & Array Ports Core Core Core Core Core Core Core Core Front End Back End Front End Back End EngineDirector ADirector B Distributed CacheDistributed Cache Inter-Cluster COM B A Intra-Cluster COM B A Inter-Cluster COM B A Intra-Cluster COM B A 每个VPLEX 集群包含4个引擎每个VPLEX 引擎包含2个DirectorVPLEX:双活数据中心、两地三中心部署VPLEX Local 数据中心内VPLEX Metro跨数据中心同步(5-10ms)VPLEX Geo跨数据中心异步(50ms)RecoverPoint 异地恢复与第三方站点保护延伸VPLEX:面向私有云设计VPLEX:为客户带来绝佳的业务收益成功案例:联宝电子私有云、双活数据中心项目用户痛点:1.7*24小时候不间断工厂,不允许业务中断、数据丢失;2.核心MES和SAS ERP系统的存储系统,存在单点故障;3.随着工厂产能提高,数据库压力增大,原存储性能不够;联想解决方案:1.联想服务器+EMC VPLEX(Local+Metro)搭建企业私有云;2.核心应用迁移到云平台,实现资源统一管理、调度、使用;3.在两个机房之间构建RPO和RTO=0的核心数据库双活容灾系统;联想存储:您值得信赖的数据管理专家。
深入剖析Vplex双活数据中心存储方案
EMC上一代存储双活方案是通过vPlex网关产品实现,具备异构其他厂商存储的能力,将各厂商存储虚拟化为统一的存储池,为上层服务器提供存储资源。
从2010年vPlex 发布以来其的硬件已经更新了VS1、VS2和VS6三代。
2016年推出的VS6硬件引擎间通过40Gb IB互联(替代FC),在性能上相比VS2硬件提升了2倍、时延下降1/3,并支持更多卷数量。
vPlex6.0 (VS6硬件) 也升级OS至GeoSynchrony6.0针对闪存做了优化。
其双活特性就是通过vPlex Metro的Distributed Device(分布式镜像卷)功能实现,并提供跨站点的双活应用。
vPlex Metro由两套vPlex集群构成,每个站点的vPlex设备都有自己专属的本地存储阵列。
通过创建分布式镜像卷为跨设备的镜像卷,可提供双活访问。
两个站点的vPlex集群各有一个卷,两个卷的ID一样。
在组网上,主机同时连接到两站点的vPlex,两站点的vPlex之间通过FC或10Ge连接,后端阵列只与本地的vPlex连接;vPlex之间和vPlex Witness之间均需要IP网络连接。
vPlex Management Console 是 VPLEX 机柜中的 1U 服务器。
此服务器向vPlex 提供GUI管理界面,在双引擎和四引擎配置中,此服务器由UPS 提供备用电源。
接下来,看看vPlex如何接管外部设备的,外部(包含异构存储)存储把LUN映射给vPlex后,在vPlex上呈现为Storage vol,基于Storage Vol在生产Extents,它可以是Storage Vol的部分或全部(每个Storage Vol最多128个),Extents不能跨Storage Vol,再以Raid的形式组织Extents成Dev(Raid支持0,1和拼接);没有被其他Dev组织的Dev称为Top Level Device,在Top Level Device上创建Virtual volumes提供给主机,并支持在线扩展。
最后由主机接口和Virtual Volume组成Storage Views,可以直接映射给主机访问。
从vPlex5.0(VS2硬件)开始,在vPlex产品系列vPlex Local和vPlex Metro中添加了vPlex Geo,从而扩展并增强了vPlex 4.0(VS1硬件)虚拟存储的功能。
vPlex Geo 扩展了vPlex Access Anywhere 存储的覆盖范围,能通过异步通信支持多达 50 ms 的往返时间(RTT)站点间延迟。
vPlex通过 Access Anywhere支持长距离共享、访问和重新定位数据拷贝。
vPlex系统可以包含一个或两个vPlex 群集。
vPlex Local系统包含一个群集,vPlex Metro和vPlex Geo包含两个群集系统组成。
这些群集可提供vPlex Access Anywhere功能。
每个vPlex 群集均包含vPlex Management Console,一个、两个、四
个或八个引擎,每个引擎包含一个备用电源。
vPlex Local用于使用单个vPlex 群集管理数据中心内的数据移动和访问。
支持单、双或四配置(分别包含一个、两个或四个引擎),本地vPlex组成local集群(4引擎8控制器),两站点local集群再组成Metro远程集群(最大8引擎,16控制器),16节点AA集群。
vPlex Metro使用两个vPlex群集且包括独特功能,支持使用直写缓存方式在两个群集之间镜像数据。
vPlex Metro部署中的群集不要求有相同数量的引擎。
例如,
vPlex Metro系统可能由一个带两个引擎的群集和另一个带四个引擎的群集组成。
vPlex Geo用于两个异步远距离节点之间使用 Access Anywhere进行访问。
vPlex Geo分布式卷使用回写缓存支持 Access Anywhere分布式镜像。
如
同 vPlex Metro,vPlex Geo系统也包含两个群集,这些群集无需具有相同数量的引擎。
vPlex Metro 和 vPlex Geo系统可根据需要包括 Witness。
Witness 作为虚拟机部署,且只支持VMware,部署在与两个vPlex群集不同的故障域中(第三方站点)。
在两个vPlex 群集之间进行仲裁,发生站点故障和群集间通信中断时,Witness 用于改善应用程序
可用性。
Witness与vPlex Metro(RTO和RPO为0) 和 vPlex Geo(RTO=0,群集间最大50毫秒的延迟,RPO接近0)配合使用,协调无缝故障切换(区分站点故障或连接故障)作
为 ESX 主机中的虚拟机运行,驻留在两个vPlex群集以外的域中。
通过IP连接到vPlex。
vPlex的关键能力AccessAnywhere是通过分布式一致性缓存技术(Distributed Cache Coherenece)来实现,在集群内及跨区域的另一集群间完成缓存数据的一致性;实现跨主机、跨集群、跨数据中心的访问和在节点之间同步镜像。
vPlex通过把控制器的单个内存系统进行合并以形成分布式缓存。
分布式设计可以跨 vPlex Metro 和Geo系统进行扩展,以提供全局系统的缓存连贯性和一致性。
分布式一致性缓存技术在实现上面,并没有强求所有的Cache都保持统一,而是基于目录形式来跟踪细小的内存块通过锁的粒度来加强扩展能力。
每个引擎的cache分为本地Cache (Cache local)和全局Cache (Cache global);每引擎的本地Cache 只有26GB,其余为全局Cache 。
读的时候先读Local Cache ,如命中直接读取;如在Global中命中,则从对应的引擎Cache中将其读取到Local Cache,再反馈主机;如没有命中,则从本地后端的存储中读取到Local中,并同时修改Local和Global Cache中的信息与索引信息。
写如数据时,vPlex Metro会通过透写方式写到两个站点,待数据写入两地的磁盘阵列后,才会向主机回应写完成。
数据写入后,Cache一致性机制会随即通知Cache页面的变化,并在所有引擎上共享该信息,达到各引擎系统的共享。
由于不同站点的主机可同时读写访问同一个卷,分布式缓存一致性技术保证不同站点的主机访问数据的一致性,这确保了主机访问分布式卷时将始终收到该卷最新的一致数据。
写的时候先判断是否在Local、Global Cache中有对应的旧数据,如没有直接写入Local cache;如有旧数据,先废除旧数据再写入Local;再写入后端存储;然后反馈完成,同时Global Cache中的索引做相应修改。
在vPlex Metro、local中数据写入两个集群下方硬盘即反馈完成;在vPlex GEO中数据写入本地集群的存储、远端内存,即反馈完成。
vPlex Local和Metro都使用直写缓存模式。
在直写缓存中,在虚拟卷收到主机的写请求时,数据将写入到映射卷的后端存储卷。
阵列确认该数据后,vPlex会将确认发送回主机,指示写入成功。
此缓存模式不适用于 vPlex Geo 系统,在该系统中 vPlex群集支持更大RTT 间隔部署。
对于此距离,大多数应用程序不能接受同步直写操作的延迟。
相反vPlex Geo使用回写缓存实现无需同步操作的数据持久性。
在此缓存模式中,vPlex接受主机写入缓存并将镜像数据复制到另一个本地控制器的内存中,然后向主机确认数据。
最后再将数据异步转储到后端存储阵列。
出现电源故障时,vPlex中的缓存保险存储逻辑会将任何未写入的缓存数据存储到本地SSD存储上。
vPlex只提供存储异构虚拟化和镜像两项功能,快照,复制等特性需要添加RecoverPoint实现,所以vPlex的组网方式常常会考虑配合RecoverPoint一起使用。
•采用vPlex实现站点间的双活;vPlex接受到主机写IO之后,同时写入两个数据中心的存储。
此外vPlex内部集成IO分流软件,vPlex将每个主机写IO同步复制到RecoverPoint。
RecoverPoint将每个IO记录下来,采用CDP实现任意时间点恢复。
•实现3DC方案;站点2的RecoverPoint通过异步复制将IO复制到站点3部署的RecoverPoint设备。
本地和异地的RecoverPoint都将每个IO记录下来,实现任意时间点恢复。
•vPlex Metro集群支持最大8引擎16控制器;支持读Cache,联合RecoverPoint 实现支持CDP方案。
简单总结下,vPlex的分布式Cache针对读IO可以加速、提高性能;但是写IO会增加延时。
在IO写入时,vPlex接收主机IO后,需要查询远程vPlex节点是否有读缓存(旧数据),通知该缓存失效,远程vPlex返回确认后,才可写入镜像卷。
RecoverPoint推荐的日志卷配置需要考虑额外容量记录日志,日志卷记录生产卷每个
变化IO,配置容量时要考虑到日志的变化量,网络带宽和稳定性,存储的性能等复杂问题。
在配合RecoverPoint的CDP方案中,主机写操作下来以后,灾备端阵列产生会出现严重IO放大操作。
由于这些原因和网关双活的成本等其他因素,EMC在2015年也推出了基于VMax存储的SRDF/Metro双活功能。