集群模式 Data ONTAP SnapVault 最佳实践指南
- 格式:pdf
- 大小:216.01 KB
- 文档页数:5
云原生架构下的运维最佳实践是什么在当今数字化转型的浪潮中,云原生架构已成为众多企业和组织构建应用程序的首选架构模式。
云原生架构以其高效、灵活、可扩展等优势,为企业带来了快速创新和业务增长的机会。
然而,与之相伴的是运维方面的新挑战。
要确保云原生应用的稳定运行和持续优化,就需要掌握一系列的最佳实践。
首先,理解云原生架构的核心概念是至关重要的。
云原生架构强调应用的容器化、微服务化、持续交付和自动化运维。
容器技术如Docker 使得应用的部署和迁移变得更加便捷和高效,微服务架构将复杂的应用拆分成多个独立的服务,每个服务可以独立开发、部署和扩展,从而提高了应用的灵活性和可维护性。
持续交付确保了应用的快速迭代和更新,而自动化运维则减少了人工干预,降低了出错的风险。
在云原生架构下,基础设施即代码(IaC)是一项关键的最佳实践。
通过使用诸如 Terraform 或 CloudFormation 这样的工具,将基础设施的配置以代码的形式进行管理。
这样一来,不仅可以实现基础设施的快速创建和销毁,还能够保证基础设施的一致性和可重复性。
同时,代码化的基础设施也便于版本控制和审计,有助于提高运维的效率和可靠性。
监控和告警也是云原生运维中不可或缺的环节。
传统的监控指标已经无法满足云原生应用的需求,需要对容器、微服务、网络等多个层面进行全面的监控。
Prometheus 是一个流行的云原生监控工具,它能够收集和存储大量的指标数据,并提供灵活的查询和告警功能。
除了监控系统的性能指标,还需要关注应用的业务指标,例如订单量、用户活跃度等,以便及时发现业务层面的问题。
告警策略的制定也需要精细规划,避免告警风暴的产生,同时确保重要的告警能够及时通知到相关人员。
日志管理在云原生架构中同样重要。
由于微服务架构的应用由多个独立的服务组成,每个服务都会产生大量的日志。
ELK(Elasticsearch、Logstash、Kibana)是一个常用的日志管理解决方案,它能够收集、存储和分析海量的日志数据。
集群服务器方案1. 引言随着互联网和大数据的快速发展,越来越多的企业需要处理大量的数据和提供高容量的服务。
传统的单机服务器面临着性能瓶颈,无法满足高并发和大规模数据处理的需求。
因此,集群服务器成为了一种常见的解决方案。
本文将介绍集群服务器的基本概念、构建方案和常见的应用场景。
2. 集群服务器的基本概念2.1 什么是集群服务器集群服务器是一组相互连接的服务器,通过共享硬件资源和分布式计算来提供高可用性、高性能和高容量的服务。
集群服务器通常由多个物理服务器或虚拟机组成,这些服务器通过网络连接在一起,并共享任务和数据。
2.2 集群服务器的优势集群服务器具有以下优势: - 提高可用性:通过冗余和负载均衡,集群服务器可以实现高可用性,即使一个节点发生故障,系统仍然可以继续工作。
- 提高性能:集群服务器可以将任务分布到多个节点上,从而提高整体的计算和处理能力。
- 提高容量:通过将数据分布到多个节点上,集群服务器可以实现数据的高容量存储。
3. 构建集群服务器的方案要构建一个集群服务器,需要考虑以下几个关键要素:3.1 网络架构在构建集群服务器时,需要设计合适的网络架构来连接所有的服务器。
常见的网络架构包括星型、环形和网状结构。
根据实际需求选择最合适的网络架构。
3.2 硬件设备选择合适的硬件设备是构建集群服务器的关键步骤。
需要考虑服务器的处理器、内存、存储和网络适配器等方面的性能。
同时,还需要选择合适的硬件监控和管理工具来确保系统的稳定运行。
3.3 软件平台选择合适的软件平台来构建集群服务器也是非常重要的。
常见的软件平台包括Hadoop、Kubernetes、Docker等。
根据实际需求选择最合适的软件平台。
3.4 负载均衡策略在集群服务器中,负载均衡是非常重要的。
通过合理的负载均衡策略,可以保证集群中的每个节点都能得到均衡的负载,并提高整体的性能和可用性。
常见的负载均衡算法包括轮询、最少连接和IP哈希等。
竞争销售指南:EMC VNX 系列与 NetApp 的比较NetApp概述NetApp 继续将其ONTAP 8.1.1 产品线剥离为两个核心产品:7—Mode(是其常规纵向扩展产品线的增量改进)和 C-Mode(以前称为 GX,是其横向扩展产品,主要侧重文件功能,但也提供一些有限的数据块功能)。
NetApp 将新的ONTAP 8.1.1 横向扩展(群集模式)功能主要定位为与Isilon 和VMAX抗衡,而继续将 ONTAP 7-Mode 定位为与 VNX抗衡,这一定位至少持续整个 2012 年。
Data ONTAP 是一个统一存储平台,它跨整个协议范围提供具有NAS 和SAN 功能的单一应用装置。
此外,NetApp 还销售用于虚拟化第三方供应商产品的V 系列产品。
NetApp 的价值主张是通过一个统一应用装置提供纵向扩展或横向扩展体系结构,而且该体系结构能够在一个简单易用的存储应用装置中与闪存缓存和闪存池配对。
闪存池、可靠的快照、板载重复数据消除和压缩以及操作简单性成为NetApp 的增值核心。
C-Mode 将此技术扩展为一个具有无限卷的横向扩展体系结构,但它是一个不成熟的产品,并包含若干在短期内无法消除的主要局限性。
NetApp 收购 Engenio 是为了提供高速数据块功能。
ONTAP 中的 NetApp 仿真数据块可以提供便捷的快照,但与业界领先的解决方案(如VNX)相比,在数据块性能方面有一定差距。
NetApp 价值主张的更详细内容:∙简单的统一体系结构—一个体系结构用于大多数工作负载(使用其任意位置写入文件布局 (WAFL) 的单一产品视图)。
∙[C-Mode]:永不停机体系结构,在节点之间透明移动数据,可以无中断操作(实际上,在大规模数据移动可行性方面有巨大限制)∙[C-Mode]:提供大规模的运营效率。
可以最多扩展到20 个节点,每个系统配备1400 个驱动器。
∙[C-Mode]:单一命名空间、负载共享镜像和可靠的故障切换为何 VNX 系列优于 NetApp?VNX提供不折不扣的性能。
集群系统实现方案详解有一种常见的方法可以大幅提高服务器的安全性,这就是集群.1、集群的基本概念Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理.此单一系统为客户工作站提供高可靠性的服务.大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用.Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件.一个Cluster包含多台〔至少二台〕拥有共享数据存储空间的服务器.任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内.每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上.Cluster内各节点服务器通过一内部局域网相互通讯.当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管.当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管.当以上任一故障发生时,客户将能很快连接到新的应用服务上.2、集群的硬件配置镜像服务器双机集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡.镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU与内存资源,镜像服务器的性能比单一服务器的性能要低一些.有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序.因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机.这也是内存镜像卡或网卡实现数据同步,在大数据量读写过程中两台服务器在某些状态下会产生数据不同步,因此镜像服务器适合那些预算较少、对集群系统要求不高的用户.硬件配置X例:•网络服务器两台•服务器操作系统硬盘两块•服务器数据存贮硬盘视用户需要确定•服务器镜像卡〔部分软件可使用标准网卡〕两块•网络服务网卡两块双机与磁盘阵列柜与镜像服务器双机系统相比,双机与磁盘阵列柜互联结构多出了第三方生产的磁盘阵列柜,目前,豪威公司、精业公司等许多公司都生产有磁盘阵列柜,在磁盘阵列柜中安装有磁盘阵列控制卡,阵列柜可以直接将柜中的硬盘配置成为逻辑盘阵.磁盘阵列柜通过SCSI电缆与服务器上普通SCSI卡相连,系统管理员需直接在磁盘柜上配置磁盘阵列.双机与磁盘阵列柜互联结构不采用内存镜像技术,因此需要有一定的切换时间〔通常为60——180秒〕,它可以有郊的避免由于应用程序自身的缺陷导致系统全部宕机,同时由于所有的数据全部存贮在中置的磁盘阵列柜中,当工作机出现故障时,备份机接替工作机,从磁盘阵列中读取数据,所以不会产生数据不同步的问题,由于这种方案不需要网络镜像同步,因此这种集群方案服务器的性能要比镜像服务器结构高出很多. 双机与磁盘阵列柜互联结构的缺点是在系统当中存在单点错的缺陷,所谓单点错是指当系统中某个部件或某个应用程序出现故障时,导致所有系统全部宕机.在这个系统中磁盘阵列柜是会导致单点错,当磁盘阵列柜出现逻辑或物理故障时,所有存贮的数据会全部丢失,因此,在选配这种方案时,需要选用一个品质与售后服务较好的产品.硬件配置X例:•网络服务器两台•服务器操作系统硬盘两块•第三方生产的磁盘阵列柜一台•磁盘柜专用SCSI电线两根•磁盘阵列柜数据存贮硬盘视用户需求确定•网络服务网卡两块除此之外,一些厂商还有更优秀的技术的解决方案,比如HP.HP双机双控容错系统HP NetServer为双机双控容错系统提供了高品质和高可靠的硬件基础..HP双机双控容错系统结合了HP服务器产品的安全可靠性与Cluster技术的优点,相互配合二者的优势.硬件配置X例:•HP L系统的网络服务器两台•服务器操作系统硬盘两块•HP硬盘存贮柜〔SS/6,RS/8,RS/12〕一台•磁盘柜专用SCSI集群适配电缆两根•磁盘柜数据存贮硬盘视用户需求确定•HP集群专用阵列卡两块•网络服务网卡两块HP光纤通道双机双控集群系统光纤通道是一种连接标准,可以作为SCSI的一种替代解决方案,光纤技术具有高带宽、抗电磁干扰、传输距离远、质量高、扩展能力强等特性,目前在FC-AL仲裁环路上可接入126个设备.光纤设备提供了多种增强的连接技术,大大方便了用户使用.服务器系统可以通过光缆远程连接,最大可跨越10公里的距离.它允许镜像配置,这样可以改善系统的容错能力.服务器系统的规模将更加灵活多变.SCSI每条通道最多可连接15个设备,而光纤仲裁环路最多可以连接126个设备.光纤集群系统组成:HP光纤集群系统硬件设备包括有两台HP服务器〔需支持光纤卡,目前有LC2000、LH3000、LH4、LH6000、LT6000、LXr8000、LXR8500〕与光纤适配卡,可以使用RS/12FC光纤磁盘阵列柜,需另加一对或两对网卡用于心跳检测和与客户端连接.在配置过程中还需另外选配光纤卡到光纤存贮设备的光纤电缆.硬件配置:•HPL系统的网络服务器两台•服务器操作系统硬盘两块•HP光纤阵列存贮柜〔RS/12FC〕一台•光纤磁盘柜专用光纤电缆两根•光纤磁盘柜数据存贮硬盘视用户需求确定•HP光纤适配卡两块•网络服务网卡两块3、集群的软件配置基于NT平台的集群软件microsoft的MSCS,也有许多第三方的专业软件公司开发的集群软件,如豪威的DATAWARE,VINCA公司的STANDBY SERVER,NSI公司的DOUBLE-TAKE.MSWolfPack的特点MS WolfPack是MSCluster server的别称,是微软针对Cluster技术研制开发的双机软件.它集成在NT SERVER上,支持由二台机器组成的双机系统,提供一种高可用且易管理的应用环境.主要特点:•自动检测和修复服务器或应用程序的错误•可实现对服务器中应用程序的切换•可通过TCP/IP连接各种客户端,如MS-DOS、WINDOWS 3.X/9X/NT,Apple Macintosh、UNIX等•生产主机无需人工干涉即可自动恢复数据并接管任务•易管理性:•可自动审核服务器和应用程序的工作状态•可建立高可用性的应用程序、文件共享、打印请求等•可灵活设置应用程序和数据的恢复策略•简单操作即可进行应用程序的离线,重新再线,服务器间的迁移.目前,WINDOWS 2000 Advanced Server与WINDOWS 2000 DataCenter Server都集成有更先进集群技术.其它的网络操作系统平台上也有许多集群软件,比如:基于novell平台的集群软件有Novell HA Server、Novell SFT III基于sco UNIX平台的集群软件有Sentinel集群软件基于Linux平台的集群软件有TurboCluster4、集群技术的发展趋势集群技术随着服务器硬件系统与网络操作系统的发展将会在可用性、高可靠性、系统冗余等方面逐步提高.未来的集群可以依靠集群文件系统实现对系统中的所有文件、设备和网络资源的全局访问,并且生成一个完整的系统映像.这样,无论应用程序在集群中的哪台服务器上,集群文件系统允许任何用户〔远程或本地〕都可以对这个软件进行访问.任何应用程序都可以访问这个集群任何文件.甚至在应用程序从一个节点转移到另一个节点的情况下,无需任何改动,应用程序就可以访问系统上的文件. 在今天,利用服务器的集群技术,通过周密计划和网络维护,系统破坏的机率是非常小的.所以,企业服务器的稳定必须使用集群技术.IBM 磁盘柜EXP200/EXP300双机解决方案在今天的商务应用系统中,稳定持续的系统运行时间变得越来越重要,而传统意义中的小型机系统使得普通用户望而却步.用户需用的是更高的可用性以与更低的成本.集群系统集群系统是一种提供高可用性、改善性能和增强企业应用软件可管理性的有效途径.随着基于Intel平台的服务器业已成为关键性业务和应用的主流服务器,集群技术的应用也日益广泛.集群系统优点集群可有效地提高系统的可用性.如果一个服务器或应用程序崩溃,集群系统中另一个服务器在继续工作的同时,接管崩溃服务器的任务,最大限度地缩短用户服务器和应用程序宕机的时间.IBM的磁盘柜EXP200/EXP300是专为企业级关键商业应用而设计,具备很高的数据存储可扩展性、数据安全性和访问能力,EXP200/EXP300具有关键的可靠性增强特性、更快的数据访问能力,并且驱动器扩展能力强、性价比高,支持磁盘驱动器的预测故障分析<PFA>.磁盘柜的具体实现如下图:因此,业界采用IBM磁盘柜 EXP200/EXP300+RAID卡这种方式组成企业级存储方案较多.但是由于IBM磁盘阵列柜只支持Microsoft的Cluster做双机热备来实现高可用,不支持第三方双机容错软件.而Microsoft的Cluster只包含在Windows2000、Windows2003的企业版中,并且Cluster只是支持Microsoft的MS SQL SERVER企业版,不支持其他第三方数据库.而Microsoft的Windows2000、2003企业版和MS SQL SERVER企业版的价格惊人,使得很多用户望而却步.我中心经过长时间试验研究,已经成功解决了关于IBM EXP200/EXP300的与第三方双机软件兼容性问题.本方案经过长期使用,效果极好,已在##某证券公司成功应用.其具体环境是:Windows2003+PlusWell5.12+SQL2000 数据库.。
企业级应用服务器集群的设计和实践在当前信息化时代,企业对于应用服务器的需求越来越大,而市面上的单一服务器无法满足大量用户同时访问的需求。
因此,企业级应用服务器集群应运而生,它通过将多个服务器相互连接来提高服务器的性能和可靠性,达到高并发访问的目的。
本文将介绍企业级应用服务器集群的设计和实践。
一、集群设计1.硬件环境企业级应用服务器集群需要提供一定的硬件环境,以确保集群的正常运转。
首先需要选择具备较高性能和稳定性的服务器硬件,并考虑服务器节点之间的网络带宽。
其次,应准备专门的负载均衡设备,以保证所有服务器节点的负载均衡。
2.软件环境企业级应用服务器集群的软件环境需要稳定可靠,并且可扩展性强。
集群内的每个服务器节点都需要安装相同的操作系统和应用环境,并在每个节点中部署相同的应用程序和数据库。
在应用程序上,可以考虑使用开源软件Tomcat、Jboss、Weblogic、IIS等,通过这些软件可以为企业提供更好的服务。
3.负载均衡企业级应用服务器集群中的负载均衡是保证系统可靠性和性能的重要因素之一。
几乎所有的负载均衡算法都考虑了请求的源IP 地址、会话ID等因素,以确保每个请求都能被合理分配到不同的节点上,从而避免服务器性能瓶颈和单点故障。
4.数据同步企业级应用服务器集群中的数据同步是非常重要的。
数据同步技术会让集群内的各个节点数据保持一致,从而使得集群内的各个节点看上去就像一个单一的系统一样工作。
此时,可以使用数据库复制技术和文件同步技术来实现。
二、集群实践企业级应用服务器集群虽然功能强大,但是在进行设计和实践时会遇到许多困难。
如何快速响应客户需求,确保系统的稳定性和数据的一致性,是所有企业所关注的问题。
下面从实际应用的角度来介绍几个问题的解决方法。
1.网站压测在进行企业级应用服务器集群设计和实践的过程中,必须进行网站压测。
网站压测一般包括单点压测和集群压测。
单点压测是对单台服务器节点进行测试,看能够承载多大的访问量。
服务集群方案一、服务集群方案的概述随着信息技术的不断发展,企业的业务需求也变得日益复杂和庞大。
为了满足这些需求,许多企业开始采用服务集群方案来提供高效、可靠的服务。
服务集群方案是一种将多个服务器组合成一个集群,通过共享、负载均衡等技术手段,来实现高可用性、高性能和可扩展性的服务架构。
本文将介绍服务集群方案的基本原理、常用的实现方式以及其优势。
二、服务集群方案的基本原理1. 负载均衡服务集群方案中最为核心的技术就是负载均衡。
负载均衡可以通过多种方式实现,例如使用硬件负载均衡器、软件负载均衡器或者DNS负载均衡等。
通过负载均衡,可以将用户请求分发到集群中的各个服务器,降低单个服务器的负载压力,提高系统的响应速度和可用性。
2. 故障转移服务集群方案中的另一个重要特性就是故障转移。
当某个服务器发生故障时,集群中的其他服务器可以接管其任务,确保服务的连续性。
通过实时监测服务器状态,以及合理的故障转移策略,可以最大限度地减少服务中断时间,并提高系统的可靠性。
3. 扩展性和可伸缩性服务集群方案可以根据业务需求进行灵活的扩展和伸缩。
通过增加或减少集群中的服务器数量,可以根据负载情况调整系统的容量。
这使得服务集群能够应对业务的高峰期和低谷期,保持系统性能的稳定和一致。
三、服务集群方案的实现方式1. 主从复制主从复制是一种常见的服务集群实现方式。
通过设置一个主服务器和多个从服务器,主服务器接收用户请求并将数据更新同步到从服务器,从服务器处理用户请求并返回结果。
主从复制可以提高服务的可用性和负载能力,但对于写操作一致性、数据同步延迟等问题需要进行合理的处理。
2. 分布式文件系统分布式文件系统可以将文件存储和访问分布在多个服务器上,提供高可用性和可扩展性的文件服务。
常见的分布式文件系统包括Hadoop、GlusterFS等,它们通过分片、冗余备份等技术保证数据的安全性和可靠性。
3. 微服务架构微服务架构是一种将应用程序拆分成多个小型、独立部署的服务单元的架构模式。
Hadoop集群容错和故障恢复的最佳实践在当今大数据时代,Hadoop已成为处理海量数据的首选框架。
然而,由于庞大的规模和复杂的架构,Hadoop集群容错和故障恢复成为了一个关键问题。
本文将探讨Hadoop集群容错和故障恢复的最佳实践,以帮助企业更好地应对这些挑战。
首先,了解Hadoop集群的架构是理解容错和故障恢复的关键。
Hadoop集群由多个节点组成,其中包括主节点(NameNode)和工作节点(DataNode)。
主节点负责管理整个文件系统的元数据,而工作节点则存储实际的数据块。
因此,主节点的失效将导致整个集群的不可用。
为了保证Hadoop集群的容错性,最佳实践之一是使用Hadoop的高可用性(HA)模式。
HA模式通过引入多个主节点来实现冗余,从而确保即使一个主节点失效,其他主节点仍能继续提供服务。
在HA模式下,主节点之间通过心跳机制进行通信,以及时检测和处理故障。
另一个重要的实践是定期备份Hadoop集群的元数据。
元数据备份可以在主节点失效时快速恢复集群。
在备份过程中,可以使用Hadoop提供的工具(如DistCp)将元数据复制到不同的位置或集群中。
此外,还可以将元数据备份到云存储服务,以提高数据的可靠性和可用性。
除了容错性外,故障恢复也是Hadoop集群管理中的重要环节。
当工作节点失效时,Hadoop提供了自动恢复机制。
在失效的工作节点上,Hadoop会自动将存储在该节点上的数据块复制到其他健康节点上,以确保数据的完整性和可用性。
这种自动恢复机制称为数据复制。
数据复制是Hadoop集群故障恢复的核心机制之一。
在Hadoop中,数据块会被复制到多个工作节点上,以提高数据的冗余性。
通过增加数据的冗余性,即使某个工作节点失效,数据仍然可以从其他节点获取。
根据Hadoop的最佳实践,建议将数据复制因子设置为3,以确保数据的高可用性。
此外,监控和诊断是保障Hadoop集群稳定运行的关键。
Hadoop提供了丰富的监控工具和指标,可以用于实时监控集群的状态和性能。
技术报告SnapVault 最佳实践指南集群模式 Data ONTAPNetApp 公司 Robbie Rikard2013 年 6 月 | TR-4183摘要本文档有助于熟悉 7-模式中运行的 NetApp® SnapVault®的用户了解在集群模式 Data ONTAP®版本的 SnapVault 中需要注意的变更。
本文档对这些变更进行了概述,并且提供了一些指向提供更多详细信息的其他 NetApp 文档的链接。
此外还包含 SnapVault 规模估算部分,有助于架构师了解设计 SnapVault 解决方案时需要考虑的各种变动因素。
目录1简介 (3)2集群模式 Data ONTAP 无中断运行和 SnapVault (3)3Storage Virtual Machine 和集群对等 (3)4SnapVault 和存储效率 (3)5扇入和扇出 SnapVault 拓扑 (4)5.1扇入拓扑 (4)5.2扇出拓扑 (4)6级联 SnapVault 和 SnapMirror 关系 (4)7计划 Snapshot 和 SnapVault 传输 (4)8与 NDMP 和 SMTape 的互操作性 (4)8.1SMTape 传播 (4)8.2NDMP (5)9System Manager 管理 (5)1 简介SnapVault 是 NetApp 推出的磁盘到磁盘备份解决方案,该解决方案内置在 NetApp Data ONTAP 中。
在 NetApp 系统中启用 SnapVault 就像安装许可证密钥一样简单,无须安装其他硬件或软件。
SnapVault 支持将数据复制到二级卷中,使数据的保留时间超过主卷上的保留时间。
适用于集群模式 Data ONTAP 的 SnapVault 首先在 Data ONTAP 8.2 中推出。
注:主卷和二级卷都必须运行集群模式 Data ONTAP 8.2 或更高版本。
集群模式 Data ONTAP 中全新亮相的 SnapVault 进行了彻底的重建。
虽然原先的 7-模式用户会发现一些相似之处,但此版本的 SnapVault 中已进行了重大改进。
其中一个主要改进是,能够在 SnapVault 传输期间保持主数据的存储效率。
本技术报告介绍了有关保持存储效率的详细信息,以及在 7-模式版本的 SnapVault 基础上更改的其他主题。
其中一个重要的架构变化是:集群模式 Data ONTAP 中的 SnapVault 在卷级复制数据,而不是像 7-模式SnapVault 那样在 qtree 级别进行复制。
这意味着 SnapVault 关系的源必须为卷,并且该卷必须复制到其自身在 SnapVault 二级系统上对应的卷。
第 5 节“扇入和扇出 SnapVault 拓扑”将对其含义进行介绍。
2 集群模式 Data ONTAP 无中断运行和 SnapVault现在,SnapVault 用户可以利用无中断运行这一优势,这也是支撑集群模式 Data ONTAP 的一大基石。
SnapVault 管理员可根据性能或容量需求无缝重新平衡 SnapVault 主系统和二级系统,因为现在可以将SnapVault 主卷和二级卷移动到集群中的不同聚合或节点,无需中断 SnapVault 运行。
如果使用 vol move 移动卷时正在执行 SnapVault 传输,则在卷转换阶段,传输可能暂停几分钟,但在vol move 操作结束后,将自最近的传输检查点继续传输。
由于使用 vol move 操作将卷移动到另一个节点,因此,管理员无须为此重新配置 SnapVault 关系。
3 Storage Virtual Machine 和集群对等集群模式 Data ONTAP 允许 SnapVault 二级卷与主卷位于同一 NetApp Storage Virtual Machine(简称SVM;之前称为 Vserver)上,也可以位于不同 SVM 上。
这些 SVM 也可以位于同一集群或不同集群中。
如果主卷和二级卷位于不同的 SVM 中,则要成功更新 SnapVault,主 SVM 与二级 SVM 之间必须能够互相通信。
这就要求主 Storage Virtual Machine 与二级 Storage Virtual Machine 建立对等关系;如果 SVM 位于不同集群中,则集群之间也须建立对等关系。
配置 SnapVault 关系之前,请确保根据需要配置 SVM 和集群对等。
有关创建这些对等关系的信息,请参见NetApp 集群模式 Data ONTAP 8.2 支持站点上的《集群管理员系统管理指南》和各种快速指南。
4 SnapVault 和存储效率集群模式 Data ONTAP 版本的 SnapVault 的一项新功能是,能够在整个 SnapVault 传输期间保持主卷的存储效率。
这意味着,如果在主卷上启用了重复数据删除和数据压缩操作,则将在 SnapVault 传输期间保持这些操作的效率,进而减少网络中传送的数据量,缩短备份时间并节省带宽。
同时,也意味着SnapVault 传输结束后,二级卷上的数据已删除了重复数据并进行了压缩,而无需在二级卷上运行重复数据删除和数据压缩过程。
要成功执行 SnapVault 传输,二级卷上必须至少具备以未经重复数据删除和压缩的格式从主卷复制数据时所需的可用空间量。
SnapVault 传输期间,看起来二级卷上占用的空间超出了主数据的大小。
但传输一结束,所用空间量会反映高效存储的数据集大小。
SnapVault 传输结束后可在二级卷上运行重复数据删除和数据压缩操作,这与主卷上的存储效率无关。
不过,如果在 SnapVault 二级卷上运行数据压缩过程,则 SnapVault 二级卷将不会保持主卷上所具有的存储效率。
有关此注意事项以及与“配合使用存储效率功能与 SnapVault”相关的其他最佳实践的详细信息,请参见TR-3966《NetApp 数据压缩和重复数据删除部署和实施指南》的第 14.1 节。
TR-3966 还有助于您了解将存储效率功能与 SnapVault 配合使用可节省多少磁盘空间。
5 扇入和扇出 SnapVault 拓扑集群模式 Data ONTAP 中的 SnapVault 支持扇入和扇出拓扑。
但与 7-模式仍存在一些差别。
有关这些拓扑的详细信息,请参见《集群模式 Data ONTAP 数据保护指南》从第 42 页开始的内容,该指南位于NetApp 集群模式 Data ONTAP 8.2 支持站点上。
5.1 扇入拓扑在扇入拓扑中,多个 SnapVault 主系统备份到一个 SnapVault 二级系统。
此拓扑的主要使用情形是,多个远程站点备份到一个中央数据中心。
在 7-模式下,扇入表示多个 qtree 可备份到同一个二级卷。
这称为“卷级扇入”。
在集群模式 Data ONTAP 中,由于关系在卷级进行配置,因此无法将多个卷备份到一个二级卷。
但可以将 SnapVault 主卷从多个 Storage Virtual Machine 和(或)集群备份到一个目标 SVM 中的不同卷,而这些卷可以位于不同集群中。
这称为“系统级扇入”。
请切记,要使 SnapVault 主系统和二级系统位于不同的集群中,这些集群必须建立对等关系;在 8.2 中,最多可以在 8 个集群之间建立对等关系,从而将集群级扇入比限制为 7 比 1。
不过,通过申请 PVR 可以实现更高的扇入比。
5.2 扇出拓扑在扇出拓扑中,单个主卷将复制到多个目标位置。
此拓扑能够保护和备份单个主卷,并在二级站点提供只读副本。
集群模式 Data ONTAP 可支持此功能,并且一个源限制为四个复制目标。
这四个目标的限制会在 SnapMirror®和 SnapVault 关系间共享。
一个源可以具有 SnapMirror 和 SnapVault 关系的任意组合,只要总关系数不超出 4 即可。
6 级联 SnapVault 和 SnapMirror 关系集群模式 Data ONTAP 8.2 支持级联 SnapMirror 和 SnapVault 关系。
SnapMirror 二级系统可作为SnapVault 关系的源(用于备份 DR 镜像);SnapVault 二级系统可作为 SnapMirror 关系的源(用于保护备份)。
对于从 SnapMirror 到 SnapVault 的关系,无法指定将哪些 Snapshot™ 副本传输到SnapVault 二级系统;SnapVault 会始终传输已通过 SnapMirror 导出的 Snapshot 副本或是 SnapMirror关系的基本副本。
这与 7-模式中的“snapmirror base snapshot only”(仅 SnapMirror 基本 SnapShot)选项相似。
管理员可以选择何时将通过 SnapMirror 导出的 Snapshot 副本的最新版本传输到SnapVault 二级系统,以及在 SnapVault 二级系统上保留多少副本。
有关级联的详细信息,请参见《数据保护指南》从第 41 页开始的内容,该指南位于NetApp 集群模式 Data ONTAP 8.2 支持站点上。
7 计划 Snapshot 和 SnapVault 传输在集群模式 Data ONTAP 中设置 SnapVault 需要多个步骤来完成。
在主卷上,必须使用 Cron 计划配置Snapshot 策略以指定要创建的副本以及创建时间,并通过分配标签来指定 SnapVault 应传输的副本。
在二级卷上,必须创建 SnapMirror 策略以指定要传输的 Snapshot 副本的标签,以及应保留在二级卷上的副本数。
配置这些策略后,即可创建 SnapVault 关系并确定传输计划。
《SnapVault 快速指南》和《数据保护指南》提供了一个流程图,用于介绍这些步骤以及详细设置说明。
请参见NetApp 集群模式Data ONTAP 8.2 支持站点。
8 与 NDMP 和 SMTape 的互操作性集群模式 Data ONTAP 8.2 提供了一项新功能,可用于将磁带集成到集群模式 Data ONTAP 备份策略中。
8.1 SMTape 传播自集群模式 Data ONTAP 8.2 起,我们引入了有限的 SMTape 功能,可通过将初始基线复制到磁带并将其恢复到二级系统来传播 SnapMirror 和 SnapVault 关系。
在集群模式 Data ONTAP 8.2 中仅支持使用 SMTape 来传播关系。
有关如何使用磁带传播的详细信息,请参见《集群模式 Data ONTAP 8.2 数据保护指南》从第 64 页开始的内容,该指南位于NetApp 集群模式 Data ONTAP 8.2 支持站点上。