EMC VPLEX 连接示意图
- 格式:ppt
- 大小:561.00 KB
- 文档页数:3
Q1:EMC VPLEX是什么?A1:VPLEX是一款分布式、全冗余的存储硬件产品,用来对现有数据中心中已有或者边缘存储资源(EMC或者第三方存储阵列)提供集成的访问与扩展的平台。
简单来说,就是整和EMC和非EMC存储,提供跨地域的单点数据访问与数据迁移。
Q2:VPLEX可以解决什么问题?A2:VPLEX解决的问题有两点:1.从异地数据中心同时访问同一个存储设备,典型的案例就是配合Oracle RAC实现双活数据中心。
2.规划与实现数据中心内或者跨数据中心间的数据迁移.比如将数据通过VPLEX从一个存储阵列(同厂商同类型,或者不同厂商不同类型的存储阵列)迁移到另外一个、将应用从一个数据中心迁移到另外一个数据中心。
Q3:VPLEX有什么特别之处?A3:VPLEX主要特别之处有三点:1.VPLEX组成的集群可以方便的横向(增加集群)与纵向扩展(添加引擎)。
2.分布式全局缓存提供分布式数据访问.3.支持长距离的异步传输和(VPLEX Geo版本)多集群架构。
Q4:VPLEX中硬件层面包含哪些主要组件?A4:VPLEX的工作单元叫做Director,和EMC自家的Symmetrix VMAX存储阵列类似。
两个Active/Active Director组成一个Engine,通过VPLEX Cluster,由不同数量的VPLEX Cluster 结合不同的部署位置组成VPLEX的三种解决方案VPLEX Local、VPLEX Metro和VPLEX Geo. Q5:VPLEX Engine硬件VS2和VS1有什么区别?A5:VPLEX目前为止推出两款硬件型号,VS1和VS2。
VS1和VS2都是用2。
4 GHz的Xeon CPU。
区别在于VS2的Engine相比VS1引擎在硬件规格上的差别主要体现在VS2使用了PCI Express V2,前者为PCI Express V1,VS2的吞吐量提升了1。
5倍。
实现Director间通讯的网络方面,VS2也从VS1的4GB提升到8GB,以提供内部通讯更大的带宽。
EMCVPLEX安装实施实施方案————————————————————————————————作者:————————————————————————————————日期:VPLEX-LOCAL的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。
4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。
本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL的级联端口连接VPLEX-LOCAL拓扑结构VPLEX-LOCAL 的FABRIC 拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB )Host data volumeVMAX_0251HOST_BAKHOST_PRD VPLEX_0550VPLEX_0549Host data volumeHost data volumeMETA VOLUME的配置请注意每台VNX必须使用两个RG,每个RG各提供两个80G LUN。
Vplex-Metro实施手册项目名称:标题文档版本号: 1.1 文档作者:生成日期:文档维护记录版本号维护日期作者/维护人描述1.01. 系统topo (6)2. 系统概述 (7)3. 系统配置前准备 (7)3.1. VNX 5700配置(代理商完成) (7)3.2. 光纤线部署 (7)3.3. 网线部署 (8)3.4. 在san switch上创建alias (8)4. vplex配置步骤 (10)4.1. 配置VPLEX的hostname和管理网口IP (10)4.1.1. 配置AVPLEX01的hostname和管理网口IP (10)4.1.2. 配置BVPLEX01的hostname和管理网口IP (10)4.2. Cluster1 EZ-SETUP (10)4.3. 分配AVNX570001磁盘给AVPLEX01 BE port (11)4.3.1. 创建AVNX570001到AVPLEX01 BE PORT的zoning (11)4.3.2. 在AVNX570001上注册AVPLEX01 (11)4.3.3. 在AVNX570001创建LUN (11)4.3.4. 在AVNX570001上创建storage group (12)4.4. 继续cluster1安装 (12)4.4.1. 继续EZ-SETUP (12)4.4.2. 配置meta-volume (12)4.4.3. 配置meta-volume backup (12)4.4.4. enable vplex FE port (12)4.5. Cluster2 和Cluster1时间同步 (12)4.6. Cluster2 EZ-SETUP (12)4.7. 分配BVNX570001磁盘给BVPLEX01 BE port (13)4.7.1. 创建BVNX570001到BVPLEX01 BE PORT的zoning (13)4.7.2. 在BVNX570001上注册BVPLEX01 (13)4.7.3. 在BVNX570001创建LUN (14)4.7.4. 在BVNX570001上创建storage group (14)4.8. 继续cluster2安装 (14)4.8.1. 继续EZ-SETUP (14)4.8.2. 配置meta-volume (14)4.8.3. 配置meta-volume backup (14)4.9. 在cluster1上完成系统配置 (15)4.10. 在cluster2上完成系统配置 (15)4.11. 配置WAN interface连接 (15)4.12. cluster2 join cluster (15)4.13. 配置cluster2 上的logging volume (15)4.14. 配置cluster1 上的logging volume (16)5. 升级vplex到最新版本 (16)5.1. 在cluster1上执行pre-check (16)5.2. 升级cluster1的management server (16)5.3. 在cluster2上执行pre-check (16)5.4. 升级cluster2的management server (16)5.5. 在cluster1上 (16)6. Vplex Witness部署 (17)6.1. 登陆到ESXi,通过OVA文件部署Witness的VM (17)6.2. Poweron Witness vm,登录到console进行配置 (17)6.3. 配置三路VPN (17)6.3.1. 配置cluster1 上配置三路VPN (17)6.3.2. 配置cluster2 上配置三路VPN (17)6.3.3. 在cluster1 上确认VPN状态 (17)6.3.4. 在cluster2 上确认VPN状态 (17)7. 创建virtual volume (17)7.1. Claim storage volume (17)7.1.1. Claim cluster1的storage volume (17)7.1.2. Claim cluster2的storage volume (18)7.2. 在cluster1上创建extent (18)7.3. 在cluster2上创建extent (21)7.4. 在cluster1上创建device (21)7.5. 在cluster2上创建device (25)7.6. 创建distributed devices (25)8. ESXi磁盘分配 (30)8.1. 安装powerpath/VE (30)8.1.1. 安装esxcli (30)8.1.2. 安装powerpath/VE (30)8.1.3. Reboot esxi 服务器 (30)8.1.4. 安装rtools (30)8.2. 创建ESXi到VPLEX FE PORT的zoning (31)8.2.1. 创建ESXi到同SAN switch相连的VPLEX的zoning (31)8.2.2. 创建ESXi到同SAN switch相连的VPLEX的zoning (32)8.3. 在BVPLEX01上注册ESXi initiator (33)8.4. 在AVPLEX01上注册ESXi initiator (34)8.5. 在BVPLEX01上创建storage view (35)8.6. 在ESXi上扫描磁盘 (38)8.7. 在ESXi上创建Datastore (40)9. 可用性测试 (40)9.1. 测试前准备 (40)9.2. 拔vplex前端口测试 (40)9.3. 拔vplex后端口测试 (41)9.4. 拔vplex wan 光纤测试 (41)9.5. 关闭后端存储测试 (41)9.6. 关闭一台vplex测试 (41)10. 系统当前配置 (41)10.1. 密码配置 (41)10.2. VNX5300配置信息 (42)10.2.1. AVNX570001配置信息 (42)10.2.2. BVNX570001配置信息 (42)10.3. VPLEX配置 (42)10.3.1. Cluster_1配置信息 (42)10.3.2. Cluster_2配置信息 (42)10.4. SAN switch配置 (43)10.4.1. Fabric1配置 (43)10.4.2. Fabric2配置 (43)1.系统topo2.系统概述本次xxx使用EMC Vplex Metro技术来实现存储系统的高可用访问,系统topo结构入第一节所示,两台VPLEX CLUSTER各自使用后端口链接一台VNX5300,其前端口供4台ESXi服务器交叉访问。
第1章IT建设方案说明1.1服务器部分说明数据库服务器采用两台X3850X5服务器,通过ROSEHA实现高可用双机环境。
应用服务器采用3台X3650M4服务器。
1.2存储部分说明新购VNX5100存储,建立统一存储资源环境,用于集中存放核心数据库数据。
采用两台24口交换机(激活16口)构建SAN网络,数据库服务器通过SAN 网络访问VNX5100磁盘阵列,提供高速,安全,稳定的链路环境。
1.3存储高可用说明配置VPLEX存储虚拟化引擎,建立数据中心内部存储高可用架构平台,消除磁盘阵列的单点故障,保证核心数据库业务连续性要求,当出现硬件故障时,无需人为参与切换,高可用平台自动进行调整保证核心业务不会中断。
并且提供动态资源调度,能够灵活的进行管理,提高整体应用平台的弹性。
第2章IT存储系统详细设计2.1存储基础架构图2.2核心存储设计针对客户的需求,推荐使用一台EMC VNX系列统一存储产品作为数据库的核心存储。
VNX是EMC新一代的中端存储产品,它将Celerra (NS) 和CLARiiON (CX4) 统一到单个产品品牌中,将Celerra和CLARiiON的所有价值推广到 VNX 系列的客户。
它面向要求高级功能、灵活性和可配置性的中端和企业存储环境。
VNX 系列在效率、简洁性和性能上有巨大的进步。
VNX 建议配置如下:VNX5100磁盘阵列:双SAN控制器,8G高速缓存,4个8Gb FC前端口,配置4个6Gb四通道SAS磁盘接口,14块 600GB 15000转SAS硬盘。
配置图形化管理软件Unisphere。
配置说明:使用了600GB 15000转的SAS盘(核心数据库数据),同样类型硬盘做RAID5数据保护,并且配置了hot spare热备盘,提升磁盘阵列的可靠性和安全性;配置容量足以支持客户现有业务发展和数据增长;同时通过8Gb/s FC光纤链路将磁盘阵列两个控制器的FC主机端口分别与两台FC光纤交换机相连,实现磁盘阵列的链路冗余和负载均衡;通过基于WEB的阵列管理软件Unisphere可以在单一WEB管理界面实现存储管理和监控,操作简单易懂。
VPLEX-LOCAL 的硬件配置信息此次安装的VPLEX-Local 有单台台VPLEX构成, VPLEX的硬件配置以下:1) 1 个 Engine2)2个 Director ,每个 Engine由两个Director 构成3)8个 8Gb 前端 FC端口,每个Director包括一块前端FC卡,共 4 个 8Gb 的前端 FC端口,因为互换机端口限制,本次使用 4 个前端 FC 端口(每个 Directo 上两个)。
4)8个 8Gb 后端 FC端口,每个Director包括一块后端FC卡,共 4 个 8Gb 的后端 FC端口。
本次使用 4 个前端 FC 端口(每个 Directo 上两个)5)4个可用的8Gb 的 VPLEX-Local 级联 FC端口,每个Director 包括一块 VPLEX-Local 级联FC 卡,共 4 个 8Gb 的级联 FC端口,可是只有两个可用VPLEX-LOCAL 的硬件介绍单台 VPLEX的硬件布局VPLEX 的 ENGINE 的硬件布局VPLEX-LOCAL 的级联端口连结PLEX-LOCAL 拓扑结构VPLEX-LOCAL 的 FABRIC 拓扑图Host HostFabric Switch Fabric SwitchManagement serverEngine power supplyVNX VPLEX VNX VPLEX-LOCAL 后端储存系统的配置HOST_PRD HOST_BAK VPLEX_0550VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB ) Host data volume Vplex Meta volume backup ( >=78GB, using 144GB )Host data volumeVPLEX_0549VMAX_0251VPLEX logging volume ( >=10GB, using 72GB )Host data volumeMETA VOLUME的配置请注意每台 VNX一定使用两个 RG,每个 RG各供给两个 80G LUN。
用VPLEX构建双活数据中心概要
通过VPLEX Metro提供的分布式联合能力,扩展了同步距离内两个位置间的访问能力。
VPLEX Metro 利用AccessAnywhere支持跨远距离共享、访问单个数据拷贝。
实现主备主机同时访问同一套卷的愿望,也就是所谓的“双活”架构,如下图所示:
◆通过主机集群技术和数据集群技术实现两台主机同时访问一套
卷,并协调I/O之间的锁机制。
◆该卷是由VPLEX Metro创建的共享卷,可以被生产主机和备份主
机同时读写。
◆来自应用的I/O访问的负载平衡和一致性关系由主机集群和数据集
群来控制。
◆两个VPLEX之间的存储缓存的一致性是由VPLEX的独特的缓存
一致性功能来保证的。
◆两台主机共用的虚拟卷是基于VPLEX的分布式镜像卷创建的,在
主备站点的数据是镜像关系,完全一致。
在生产主机正常进行读写的同时,备份主机可以接受只读I/O请求,而且从备份主机读出来的数据是实时更新的生产数据。
产品介绍在数据中心内、跨数据中心和在数据中心之间进行透明的信息移动用于私有云的新存储平台多少年来,用户都依赖传统的物理存储来满足其信息需要。
不断发展的变化,如服务器虚拟化以及用户网络中的多个站点的增长,已对存储管理以及信息访问的方式有了新的要求。
为跟上这些新的要求,存储必须改进,以提供新的将数据从物理设备中解放出来的方法。
存储必须能够连接到虚拟环境,同时仍然可以提供自动化、与现有基础架构的集成、按需使用、安全性、成本效益、可用性和安全性。
EMC® VPLEX™ 系列是用于在数据中心内、跨数据中心和在数据中心之间进行信息移动和访问的新一代解决方案。
它是世界上第一个同时提供本地联合和分布式联合的平台。
• 本地联合提供站点内物理元素的透明协作。
• 分布式联合跨远距离扩展了两个位置之间的访问能力。
VPLEX 是一个用于联合 EMC 和非 EMC 存储的解决方案。
VPLEX 存储联合为私有云计算时代提供了广泛的新特性和功能。
• AccessAnywhere™随 VPLEX 一起提供,是 EMC 的一种突破性技术,支持跨远距离共享、访问和移置单个数据拷贝。
EMC GeoSynchrony™ 是 VPLEX操作系统。
由于 VPLEX 消除了物理障碍,使用户能够在不同地理位置访问单个数据拷贝,所以它还帮助实现了地理位置延伸的虚拟和物理主机群集,这样就允许在多个站点之间透明地共享负载,并可以灵活地在站点之间移置工作负载以应对计划中的事件。
另外,如果在其中一个数据中心发生了可能导致运营中断的计划外事件,则停下的服务可以在幸存下来的站点上重启,而这只需要最小的工作量,并最大限度地减少了恢复时间。
VPLEX 彻底改变了管理和提供 IT 服务的方式—特别是与服务器虚拟化一起部署时。
通过为操作和管理 IT 启用新的计算模型,可对资源进行联合,亦即让它们加入共用池并跨整个堆栈进行协作,另外还可以跨地理位置和服务提供商动态移动应用程序和数据。