银行双活数据中心建设方案
- 格式:docx
- 大小:365.38 KB
- 文档页数:12
双活数据中心方案一、需求背景:随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。
近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。
商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。
为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。
二、发展趋势:多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。
从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。
就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。
目前客户建设多数据中心的模型可以归纳为以下几种:1.单纯的数据容灾:正常情况下只有主数据中心投入运行,备数据中心处于待命状态。
发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。
这种模式只能解决业务连续性的需求,但用户无法就近快速接入。
灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。
2.构建业务连续性:两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。
但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。
双活数据中心方案本文档旨在详细介绍双活数据中心方案。
双活数据中心是指在一个组织内部建立两个或更多的数据中心,使得在任何情况下均能保持高可用性和冗余性。
1\引言1\1 背景1\2 目的1\3 范围2\双活数据中心架构2\1 数据中心结构概述2\2 网络架构2\3 存储架构2\4 计算架构2\5 负载均衡和容错机制3\双活数据中心部署规划3\1 数据中心位置选择3\2 网络连接规划3\3 存储规划3\4 计算资源规划3\5 安全规划4\数据同步与复制4\1 数据同步原理4\2 数据同步技术选型4\3 数据复制策略4\4 数据完整性和一致性保证5\高可用性与故障转移5\1 故障转移策略5\2 自动化故障转移5\3 监控与预警5\4 容灾测试和演练6\数据中心升级与维护6\1 升级策略和计划6\2 维护策略和计划6\3 软硬件升级流程6\4 灾难恢复过程7\附件●附件1: 双活数据中心网络拓扑图●附件2: 存储架构示意图注释:1\双活:指两个或更多数据中心在活动状态下同时运行,发生故障时能够实现无缝切换。
2\可用性:指系统或服务在规定时间内处于可用状态的能力。
3\冗余性:指系统或服务拥有多余的资源,以保证在故障发生时能够继续提供服务。
4\容错机制:指系统或服务所具备的自动恢复能力,以确保任何故障不会导致系统崩溃或服务中断。
本文档所涉及的法律名词及注释:1\双活数据中心方案:在法律上指一个组织内部建立两个或更多的数据中心,以确保数据和服务的高可用性和冗余性。
2\高可用性:在法律上指系统或服务在规定时间内能够持续提供可用性的能力。
3\故障转移:在法律上指系统或服务在发生故障时自动切换到备用设备,以保证服务的连续性。
4\监控与预警:在法律上指对数据中心和相关设备进行实时监控,并在发生异常情况时提供预警通知。
5\容灾测试和演练:在法律上指定期定时对数据中心的灾难恢复过程进行测试和演练,以验证其可用性和可行性。
本文档涉及附件:1\附件1: 双活数据中心网络拓扑图2\附件2: 存储架构示意图。
银行双活数据中心建设方案目录1数据中心现状 (1)2项目规划 (1)数据中心改造方案 (1)2.1业务互联网接入区域高可用设计 (1)2.2业务互联网接入区域双活设计 (2)2.3业务区高可用设计 (4)2.4业务区综合前置区域基于IP的双活设计 (5)2.5业务区OA区域基于IP的双活设计 (6)2.6测试区域应用高可用设计 (8)2.7项目利旧设备调换说明 (8)3实施计划 (9)3.1互联网接入区F5LC替换说明 (9)3.2互联网接入区F5LC替换业务影响 (9)3.3应用区F5LTM替换说明 (10)3.4应用区F5LTM替换业务影响 (10)1数据中心现状目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。
数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。
2项目规划为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。
数据中心改造方案2.1业务互联网接入区域高可用设计•网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。
•在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。
在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性;•互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全;•将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统;•在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。
商业银行应用双活架构设计方案在商业银行的信息技术架构中,双活架构是一种旨在提高系统可用性和容错能力的方案。
它基于分布式架构原理,通过将数据和业务逻辑同时部署在两个独立的数据中心或机房,以实现高可用性、高可靠性和高性能。
双活架构的设计方案主要包括以下几个关键要素:1.双机房部署:商业银行需要选择两个地理位置相距较远的机房或数据中心进行部署。
这样可以避免单点故障,提高系统的容错能力。
两个机房之间应该采用高速可靠的网络连接,以保证数据的实时同步。
2.数据同步和复制:双活架构下,数据的同步和复制是实现高可用性的关键。
商业银行需要选择合适的数据同步技术和策略,确保两个机房之间的数据实时同步和一致性。
常用的数据同步方式包括基于日志的增量同步、基于快照的全量同步和异步同步等。
3.负载均衡和故障切换:商业银行需要采用负载均衡技术将用户请求分发到两个机房中的可用服务器。
当一个机房出现故障时,另一个机房可以接管用户请求,实现系统的高可用性和容错能力。
常用的负载均衡算法包括轮询、加权轮询和最少连接数等。
4.异地容灾和故障恢复:商业银行需要实现异地容灾和故障恢复机制,以应对自然灾害、网络故障和硬件故障等异常情况。
这包括备份和恢复数据、搭建冷备和热备系统、定期进行灾难恢复演练等手段,确保在极端情况下系统能够迅速恢复。
5.监控和运维:商业银行需要建立完善的监控和运维体系,及时监测双活架构下各个组件的运行状态和性能指标。
这包括实时监控系统的可用性、负载情况和数据同步状态,定期进行巡检和性能调优,确保系统的稳定性和可靠性。
总结起来,商业银行在应用双活架构的设计方案中需要考虑到双机房部署、数据同步和复制、负载均衡和故障切换、异地容灾和故障恢复以及监控和运维等关键要素。
通过合理设计和实施双活架构方案,商业银行可以提升系统的可用性和容错能力,为客户提供更加稳定可靠的金融服务。
银行“双活”数据中心构建技术及实现路径■ 中国农业发展银行总行 李小庆 赵建现代银行业作为知识密集型产业,从产品创新、风险控制到监管调控、战略决策等各方面都需要信息技术的支持。
信息系统的安全可靠不仅是银行赖以生存和发展的基础,还关系到整个银行业的安全甚至国家金融秩序的稳定。
如何持续提升信息系统的连续性水平,为业务连续性打造更加坚实的基础,是银行在信息化发展过程中需要重点研究和解决的问题。
近年来,随着云计算、虚拟化等技术的飞速发展,传统的数据中心灾备模式正在进行悄然变革。
出于提升信息系统高可用性、提高数据中心资源利用率等需求的考虑,“双活”逐渐成为业内数据中心发展的主流趋势。
1银行业数据中心的发展情况信息化发展给银行带来了翻天覆地的变化,而数据中心作为银行信息系统运营的中枢和业务经营的基础支撑,为适应银行信息化发展和业务创新的需求,也在持续不断地完善和革新。
中国银行业的信息化发展起步于20世纪80年代,一直走在各行业的前列,其过程正是一部信息技术和业务需求相互促进、逐步融合的历史。
信息化发展给银行带来了翻天覆地的变化,而数据中心作为银行信息系统运营的中枢和业务经营的基础支撑,为适应银行信息化发展和业务创新的需求,也在持续地进行着完善和革新。
1.1数据大集中上世纪末到本世纪初,业务大集中的需求给银行带来了数据大集中的变革。
为实现信息系统在物理构架上的集中,银行普遍建立了高可靠性和高扩展性的数据中心,对业务数据进行集中处理和统一管理。
数据中心满足了数据大集中的需求,为银行进行业务流程改造创新以及数据深层挖掘分析提供了必要的技术支撑,推动了银行向决策科学化方向迈进,提高了银行整体的运作效率和管理水平。
1.2灾备体系建设数据大集中同时意味着各类风险的高度集中。
因此,在发生灾难或重大紧急事件时,如何保障信息系统的稳定运行和数据安全成为银行在完成数据大集中改造后面临的首要问题,数据中心“容灾”需求日益强烈。
过去的十年里,银行业掀起了灾备中心建设的浪潮并取得了巨大进展。
银行跨数据中心数据库双活架构设计难点一:数据库双活,如何解决几十公里延时带来的性能问题?分享一:几十公里的延时主要表现在两方面,一个是存储双写延迟,一个是节点通信延迟。
从存储延时来说首先要做到本地读。
这个在GPFS文件系统里是可以做到的。
其次是增大缓存,减少同步写的次数。
对于数据库里的大对象,最好使用inline的方式放在常规表空间里,或者存放在开启了文件缓存的表空间里。
对于数据库日志,一定要设置足够的日志缓冲池,避免因为缓冲池不够发生的同步写。
在通信的延迟上,我们需要做到的是尽量减少通信。
所以要想办法解决热点数据问题。
同时能够本地访问和缓冲的都要想办法实现。
例如推荐采用客户端偏好链接。
基于current member来组织表和数据等等。
(孔再华)有个问题,由于CF节点只有一个,对于写来说,必然存在两个站点的DB2 MEMBER都同时需要通过RDMA访问CF节点GBP,本地来说,问题不存在,跨站点RDMA访问的话,这个通信耗时和性能是否需要重点关注?(邓毓)你说的非常正确,跨站点的member和CF通信需求是双活环境调优的关键。
所以这个就是重点关注的对象,要减少这种交互。
数据库提供了mon_get_cf等相关表函数能够抓取CF的功能和耗时,进而分析是什么操作最慢,能不能减少或者调整。
(孔再华)分享二:我从Oracle数据库层RAC说一下吧,个人比较喜欢用ASM,用ASM可以解决一部分性能问题,之所以说一部分是因为ASM也只能解决"读"的问题;由于距离产生的延迟,那么最好的办法就是不缩短距离,这个好像是废话,但是对于Oracle ASM的 redundancy来说其实是可以做到的,比如创建Oracle ASM的磁盘组的时候选择的是Normal redundancy的方式,那么磁盘组就会至少有2个failure group ,而我们可以把2个failure group里的物理盘手工的划分到不同的物理位置,一般双活都有2个机房,那么一个failure group里放一个机房的磁盘,另外一个fialure group里放置另外一个机房的磁盘,这样双活也就实现了,但是随即而来的问题就是物理距离的增加和光信号的衰减和传输的性能降低,Oracle ASM考虑到提升一部分功能,在参数里提供了asm_preferred_read_failure_groups这个参数,也就是说当做物理读的时候每一个机房里的节点(RAC节点)都可以配置自己优先读的“机房” ,这样可以保证“读”不受“距离”的影响,但是“写” 是必须要在双节点都完成的,所以对于ASM来说对于“写”也没有特别好的办法解决距离产生的延迟。
商业银行应用双活架构设计方案双活架构是指商业银行采用两个数据中心,并同时运行,以实现业务的高可用性和灾备能力。
在双活架构中,两个数据中心之间通过高速网络进行数据同步和交互,当一个数据中心发生故障时,另一个数据中心可以顶替其工作,确保业务的连续性。
1.数据中心的选址与建设:商业银行需要选择两个不同的地理位置作为数据中心的建设地点,以避免自然灾害和其他突发事件对两个数据中心同时造成影响。
每个数据中心应具备必要的硬件和软件设施,包括服务器、存储设备、网络设备、备用电源和灭火系统等。
2.数据同步和交互:商业银行应采用高速、可靠的网络连接两个数据中心,以实现数据的实时同步和交互。
可以使用光纤通信或者专线连接两个数据中心,确保数据的快速传输和可靠性。
同时,还要建立良好的数据备份机制,确保数据的完整性和可恢复性。
3.业务切换和故障转移:当一个数据中心发生故障时,商业银行需要快速切换到另一个数据中心继续提供业务。
为了实现业务的快速切换,商业银行应使用负载均衡器来分发流量,确保用户的请求被正确地转发到可用的数据中心。
同时,商业银行还需要建立事前制定的故障转移计划,明确各个业务系统在发生故障时应采取的恢复措施和时间目标。
4.安全性保障:商业银行应加强对双活架构的安全性保障,防止恶意攻击和数据泄露。
可以使用防火墙、入侵检测系统和安全监控工具等技术手段来加强对数据中心的安全防护。
同时,商业银行还需要制定和实施严格的安全政策和数据保护措施,加密和备份关键数据,确保数据的隐私和安全。
5.持续改进和演练:商业银行应定期对双活架构进行演练和测试,以验证其可用性和容错性。
演练和测试应包括正常业务场景和各种故障模拟,以确保在实际应急情况下能够有效地应对和处理。
商业银行还应定期评估和优化双活架构的性能和效果,并根据实际情况进行持续改进,以保持架构的高可用性和灾备能力。
总之,商业银行应用双活架构设计方案的目标是提高业务可用性和数据安全性。
商业银行应用双活架构设计方案双活架构是一种商业银行应用系统设计方案,它的特点是系统部署在两个或多个不同的数据中心,同时工作,确保系统的高可用性和灾备能力。
下面是一个关于商业银行应用双活架构设计方案的详细说明,包括架构设计、关键技术和实施步骤。
一、架构设计1.双数据中心部署:商业银行应用系统部署在两个或多个地理位置相隔较远的数据中心中。
每个数据中心都有自己的硬件设备、网络设备和存储设备,可以独立工作。
2.数据同步技术:为了保证数据的一致性,双活架构需要使用数据同步技术将主数据中心的数据实时同步到备份数据中心。
常用的数据同步技术包括异步复制和同步复制等。
3.双机热备:商业银行应用系统在主数据中心和备份数据中心都部署有完全相同的硬件和软件配置。
主数据中心发生故障时,备份数据中心可以立即接管业务。
4.负载均衡:为了提高系统的性能和可靠性,商业银行应用需要使用负载均衡设备将网络流量均匀地分发给主备数据中心。
负载均衡设备可以实时监测主备数据中心的健康状态,当主数据中心发生故障时,它可以自动将流量切换到备份数据中心。
二、关键技术1.虚拟化技术:商业银行应用可以使用虚拟化技术将服务器、存储设备和网络设备虚拟化成多个虚拟实例。
这样可以提高资源利用率,降低系统成本,并且方便进行系统迁移和扩展。
2.分布式数据库:商业银行应用需要使用分布式数据库来支持数据同步和数据一致性。
分布式数据库可以将数据分布在多个节点上,并提供统一的查询接口和事务管理机制。
3.高可用存储设备:商业银行应用需要使用高可用存储设备来保证数据的可靠性和安全性。
高可用存储设备可以提供实时数据同步、数据冗余和热备份等功能,避免数据丢失和系统中断。
4.网络安全技术:商业银行应用需要使用网络安全技术来保护系统的机密性、完整性和可用性。
网络安全技术包括防火墙、入侵检测系统和安全监控系统等。
三、实施步骤1.架构设计和规划:商业银行应该根据自身的需求和预算,制定一套适合的双活架构设计方案,并规划每个数据中心的硬件和软件配置。
银行双活数据中心建设方案
目录
1数据中心现状 (1)
2项目规划 (1)
数据中心改造方案 (1)
2.1业务互联网接入区域高可用设计 (1)
2.2业务互联网接入区域双活设计 (2)
2.3业务区高可用设计 (4)
2.4业务区综合前置区域基于IP的双活设计 (5)
2.5业务区OA区域基于IP的双活设计 (6)
2.6测试区域应用高可用设计 (8)
2.7项目利旧设备调换说明 (8)
3实施计划 (9)
3.1互联网接入区F5LC替换说明 (9)
3.2互联网接入区F5LC替换业务影响 (9)
3.3应用区F5LTM替换说明 (10)
3.4应用区F5LTM替换业务影响 (10)
1数据中心现状
目前有番禺生产机房和柯子岭灾备机房,两个数据中心采用裸纤DWDM互联。
数据中心按其所部署业务属性不同,划分为外网网银区、内网综合前置区、内网OA区以及负责办公用户上网的互联网接入区。
2项目规划
为提升数据中心IT资源利用效率,同时保障业务灾难时的平滑切换,计划将两中心建设为双活数据中心,并对原机房中部署的F5设备进行升级。
数据中心改造方案
2.1业务互联网接入区域高可用设计
•网银区域高可用包括了接入互联网链路的高可用和Web/App应用的高可用。
•在链路高可用上采用F5互联网融合解决方案,通过部署F5 BR-4000S,实现链路负载均衡、多数据中心负载均衡、DNS server、DDOS防护、数据中心防火墙等诸多L4-L7 Services,解决了传统架构中的“糖葫芦串”的复杂部署,简化了网络架构,降低了后期的运维管理成本。
在番禺生产机房部署2台BR-4000s,通过Scale N+M集群保证网银出口的高可靠性;
•互联网出口处F5实现的DDOS防护功能有效保护了外网DNS系统的安全;
•将外网DNS迁移部署到F5设备上,为广州农商银行实现了高性能的智能DNS系统;
•在应用高可用方面,Web层使用LTM4000s,App层使用LTM2000s,实现对应用的负载均衡、SSL Offload、健康检查和会话保持等功能。
业务互联网接入区域改造后拓扑示意图如下所示:
业务互联网接入区域改造后拓扑示意图
2.2业务互联网接入区域双活设计
•互联网区域应用双活主要通过基于域名的解决方案实现。
在番禺生产机房部署2台BR-4000s,在柯子岭灾备机房部署2台BR-4000s。
主中心“主备备”的部署模式在多数银行架构中被采用,能够进一步提高可用性;
•用户解析网银域名时,由GTM决定将用户流量导向最合适的数据中心;
•一旦出现一个数据中心崩溃的情况,GTM将平滑将用户流量牵引到可用的数据中心。
•番禺机房Web层原部署设备为LTM3600,将其替换为LTM 4000s,并在柯子岭灾备机房新增2台LTM 4000s;App层原有2台LTM2000s,在柯子岭灾备机房新增2台LTM2000s。
业务互联网接入区域双活改造后的拓扑示意图如下所示:
业务互联网接入区域双活改造后的拓扑示意图
改造后F5 LTM 3900采用主备双机串联接入模式链路中,两台F5 GTM 3600采用单臂旁挂模式分别接入原有电信和联通ISP链路上。
2.3业务区高可用设计
内网业务区综合前置区域原部署了3台LTM3900负责前置业务的高可用,此项目中将使用更高性能的LTM5050s替换,在番禺生产机房部署3台,采用Scale N+M集群提供更高的可靠性;
替换下的3台LTM3900部署在OA区,其中番禺部署2台,柯子岭部署1台,使用Scale N+M技术将3台组成一个集群。
2.4业务区综合前置区域基于IP的双活设计
F5基于IP的应用双活解决方案有两种:一种是RHI健康路由注入,一种是Scale N+M应用集群方式。
由于广州农商银行的同城双中心为L2连接,因此我们推荐使用Scale N+M集群方案,综合前置区域新增5台LTM5050s,采用主3+备2模式部署,不同的应用在不同的设备上均为Active;
在此方案中,我们将两个数据中心的5台设备做成一个集群,不同的应用在不同的设备上均为Active,下方应用服务器处于同一VLAN,两个数据中心的BIGIP设备均可调用;
当一台设备或一个数据中心出现问题时,系统会无缝的切换到之前设定的下一个健康的设备或数据中心,保证了应用的连续性。
2.5业务区OA区域基于IP的双活设计
F5基于IP的应用双活解决方案有两种:一种是RHI健康路由注入,一种是Scale N+M应用集群方式。
由于广州农商银行的同城双中心为L2连接,因此我们推荐使用Scale N+M方案;
在此方案中,我们将综合前置区域替下的3台LTM3900部署在OA区域,采用主2+备1模式,做成一个集群,不同的应用在不同的设备上均为Active,下方应用服务器处于同一VLAN,两个数据中心的BIGIP设备均可调用;
当一台设备或一个数据中心出现问题时,系统会无缝的切换到之前设定的下一个健康的设备或数据中心,保证了应用的连续性。
2.6测试区域应用高可用设计
测试区域的应用高可用主要用于生产系统上线前的测试,主要使用项目升级中替下的旧设备搭建;
为实现原有资产的利旧使用,建议测试系统采用广州农商银行之前采购的两台
LC1600(网银区互联网接入替下设备)和两台LC1600(办公区互联网接入替下设备)模拟测试环境,搭建与实际生产环境一样的拓扑,所灌装软件版本和生产区域保持一致,以保证测试环境所取得结果与生产环境下一样;
测试区域设备数量:
F5-BIG-LC-1600 * 4 (已有设备利旧)
2.7项目利旧设备调换说明
•原番禺数据中心业务互联网接入Web层使用LTM 4000s替换原有的2台LTM 3600。
替换下的设备调换至管理互联网接入区的App层部署。
•原番禺数据中心业务区使用5台LTM 5050S(主3备2)替换下原有的3台LTM 3900(主2备1)。
替换下的LTM 3900放置在OA区域,其中主2备1;
•原番禺数据中心OA区两台LTM 1600,调换至柯子岭灾备中心的管理互联网接入区的App层部署;
•将原番禺数据中心业务互联网接入和管理互联网接入的4台LC-1600调换至测试区域:
3实施计划
3.1互联网接入区F5 LC替换说明
互联网接入区因原F5 LC设备部署模式为串接,使用BIGIP-4000S-BR替换时,需要把旧设备配置导出,并且离线转换配置格式为上线版本的格式,再导
入BIGIP-4000S-BR上;
配置导入BIGIP-4000S-RB后,离线与现网使用设备进行配置比对。
上线时,需要把原F5 LC上网线拔除,连接BIGIP-4000S-BR网线。
验证业务是否正常,即验证F5上业务发布是否正常;F5 Outbound方向选路和负载是否正常;验证应用服务业务访问和选路是否正常,即验证F5
Inbound方向选路和负载是否正常;
经过验证各项指标满足改造要求则割接成功。
否则回退到割接前的网络结构并进行全业务测试,确保回退成功。
3.2互联网接入区F5 LC替换业务影响
割接过程中需要停止互联网接入区原F5 LC的工作,这会导致所有F5 LC相关的所有业务中断,包括服务器上网及其他相关应用服务业务。
3.3应用区F5 LTM替换说明
应用区因原F5 LTM设备部署模式为旁挂,使用BIGIP-4000S-LTM替换时,可以通过为新设备分配一组新的接口ip与业务ip,让新旧两套设备并存工作;
把现网在用设备配置导入BIGIP-4000S-LTM后,修改网络层接口ip为新分配ip,并且把所有virtualserver设置为disable和关闭arp响应。
把待测试应用virtualserver地址更改为新分配的业务地址。
验证业务是否正常,在此期间生产流量还是发送到原设备上,对生产业务不会造成影响;
经过验证各项指标满足改造要求后,可以删除旧设备上对应virtualserver地址,并且在新设备上把该virtualserver地址更改为生产地址,并且设置为
enable,生产流量切换到新设备上。
3.4应用区F5 LTM替换业务影响
可以通过新增业务ip的方式,让新旧设备并存,逐批业务进行切换,如果在切换期间发生问题,可以快速回滚业务到旧设备上,对业务造成影响较小。