深信服双活数据中心(业务层)方案
- 格式:docx
- 大小:1.38 MB
- 文档页数:12
双活数据中心方案双活数据中心方案1. 引言随着互联网业务的不断发展,数据中心的高可用性和容灾能力变得越来越重要。
传统上,为了确保业务的连续性和数据的安全性,许多企业会建设多个数据中心并采用双活架构。
本文将介绍双活数据中心方案的概念、原理和实施方式,并讨论其优点和挑战。
2. 双活数据中心的概念双活数据中心是指在不同的地理位置建设两个数据中心,并实现两个数据中心之间的数据的实时同步和业务的无缝切换。
通过双活架构,即使一个数据中心发生故障,另一个数据中心仍然能够提供连续的服务,确保业务的不间断运行。
3. 双活数据中心的原理双活数据中心方案主要包括以下几个关键技术:3.1 数据同步数据同步是实现双活数据中心的基础。
数据同步可以通过同步复制或异步复制的方式实现。
同步复制要求数据在两个数据中心之间实时同步,确保两个数据中心的数据完全一致,但对网络质量和延迟要求较高。
异步复制允许一定的延迟,可以在网络不稳定或延迟较大的情况下提供更好的性能,但可能会导致数据的不一致。
3.2 业务切换当一个数据中心发生故障时,需要将业务无缝切换到另一个数据中心。
业务切换可以通过负载均衡器、域名解析或虚拟 IP 地址等方式实现。
负载均衡器可以将流量均匀地分发到两个数据中心,域名解析可以将域名指向另一个数据中心的 IP 地址,虚拟 IP地址则可以使切换过程对用户透明。
3.3 失败检测和自动恢复为了提高系统的可用性和容错能力,需要在双活数据中心中实现故障检测和自动恢复机制。
故障检测可以通过心跳机制或监控系统实现。
一旦检测到故障,系统应该能够自动触发故障切换并将业务切换到备用数据中心。
4. 双活数据中心的实施方式双活数据中心方案可以通过多种方式实施,具体取决于业务需求和预算限制。
以下是几种常见的实施方式:4.1 同城双活同城双活是指将两个数据中心建设在同一个城市或区域,并通过专线或光纤连接起来。
这种方式可以提供较低的延迟和较高的网络带宽,适用于对延迟和带宽要求较高的业务。
F5双活数据中心解决方案F5双活数据中心解决方案:提升业务连续性,降低运营成本随着企业业务的快速发展和信息技术的不断进步,数据中心已经成为企业运营的重要支柱。
然而,传统的数据中心架构往往面临着一系列挑战,如数据处理能力不足、资源利用率不高等。
为了解决这些问题,F5公司推出了一款双活数据中心解决方案,旨在提高业务连续性、降低运营成本,并为企业的数字化转型提供强有力的支持。
一、解决方案F5双活数据中心解决方案旨在提高数据处理能力、充分利用资源、降低成本,同时确保业务的高可用性和容错能力。
该方案采用了先进的技术,包括数据分流、资源调度等,以实现两个数据中心之间的协同工作。
在实际应用中,该方案可有效提高客户端性能、降低运营成本,并确保业务的高可用性。
二、技术原理F5双活数据中心解决方案基于负载均衡和流量管理技术,通过将流量分流至不同的数据中心,实现负载均衡和容错能力。
同时,该方案还采用了资源调度的技术,根据不同的业务需求和资源使用情况,动态地分配计算和存储资源,以提高资源利用率并降低成本。
三、实际应用某大型电商企业采用了F5双活数据中心解决方案,实现了两个数据中心的协同工作。
通过数据分流和资源调度,该企业的客户端性能提高了30%,运营成本降低了25%,同时业务的高可用性也得到了有效保障。
在遭遇故障或攻击时,该方案能够迅速将流量切换到另一个数据中心,确保业务的连续性和稳定性。
四、未来展望随着云计算和大数据技术的快速发展,双活数据中心解决方案将迎来更为广阔的应用前景。
未来,双活数据中心将更加注重智能化管理和自适应调节,以满足不断变化的业务需求。
同时,随着5G等新技术的普及,双活数据中心将在移动领域发挥更大的作用,为移动应用提供更稳定、更高效的支持。
五、结论F5双活数据中心解决方案为企业的业务连续性和数字化转型提供了强有力的支持。
通过提高数据处理能力、充分利用资源、降低成本,该方案能够有效应对各种挑战,推动企业的业务发展。
双活数据中心技术架构1. 引言1. 背景介绍:随着企业规模的扩大和业务需求的增加,传统单一数据中心已经无法满足高可用性、容灾备份等要求。
2. 目标:本文档旨在介绍双活数据中心技术架构,以实现系统高可用性、故障恢复能力和负载均衡。
2. 双活数据中心概述1. 定义:双活数据中心是指通过部署两个或多个相互独立但功能完全相同的主/从站点来提供服务,并保持这些站点之间实时同步。
2. 特点:a) 高可靠性: 当一个站点发生故障时,其他正常运行的站点可以接管其工作并确保服务不间断;b) 故障切换速度快: 系统具有自动检测到异常情况并迅速进行切换至备份节点;c) 数据一致性: 主/从节点之间采取实时同步机制,确保所有操作都得到正确执行。
3.核心组件及功能详解a)负载均衡器(Load Balancer)i)定义与原理说明;ii)使用场景及优势;iii)常见的负载均衡算法。
b) 数据同步与复制(Data Replication) i)主从模式;ii)数据一致性保证机制;iii)实时同步技术介绍。
c) 故障切换与恢复(Flover and Recovery) i) 自动故障检测和切换流程说明;ii) 快速恢复策略。
4. 双活数据中心架构设计a) 网络拓扑结构:i)双活网络互联方案选择;ii)子网规划和IP地址分配。
b) 主/从节点部署方式:i ) 各个站点角色定义,如何选取主节点、备份节点等;ii ) 节点间通信协议配置。
5.附件:本文档涉及到以下附件,请参考相关文件进行具体操作或设置:- 示例网络拓扑图- 配置示例6.法律名词及注释:- 双活数据中心: Dual Active Data Center, 源自英文缩写DADC.- 容灾备份: Disaster Recovery (DR), 是指在系统发生严重事故后能够快速将业务迁移到其他地理位置的设施,并确保服务可用性不受影响。
应用级双活建设方案嘿,各位看官,今天咱们来聊聊应用级双活建设方案,这可是个技术活儿。
我这就开始给大家梳理一下,让你们看看这方案是怎么个玩法。
一、方案背景随着企业业务的发展,对信息系统的高可用性要求越来越高。
应用级双活建设方案就是在这样的背景下应运而生。
简单来说,就是让两个数据中心同时运行,互为备份,当一个数据中心出现问题时,另一个数据中心能够立刻接替它的工作,保证业务不中断。
二、方案目标1.提高系统可用性:通过应用级双活,实现99.999%的系统可用性,让业务运行更加稳定。
2.提高数据安全性:实现数据的实时备份,确保数据不丢失。
3.提高运维效率:通过自动化运维,降低运维成本。
4.提高业务连续性:在发生灾难时,能够快速切换到备用数据中心,保证业务连续性。
三、方案架构1.双活数据中心:建设两个数据中心,一个主数据中心,一个备用数据中心。
两个数据中心之间通过专线连接,实现数据的实时同步。
2.应用负载均衡:通过负载均衡技术,将用户请求分发到两个数据中心,实现负载均衡。
3.数据库双活:采用数据库双活技术,实现数据库的实时同步。
4.存储双活:采用存储双活技术,实现存储设备的实时同步。
5.网络双活:采用网络双活技术,实现网络的实时同步。
四、方案实施1.硬件部署:在两个数据中心分别部署服务器、存储、网络等硬件设备。
2.软件部署:在服务器上部署操作系统、数据库、中间件等软件。
3.数据同步:配置数据同步软件,实现数据的实时同步。
4.负载均衡:配置负载均衡设备,实现用户请求的负载均衡。
5.监控与运维:部署监控软件,实时监控双活系统的运行状况,通过自动化运维工具,实现运维工作的自动化。
五、方案优势1.高可用性:通过双活架构,实现系统的高可用性。
2.数据安全性:实时备份,确保数据不丢失。
3.灵活扩展:根据业务需求,可灵活扩展数据中心规模。
4.运维简化:自动化运维,降低运维成本。
5.业务连续性:快速切换,保证业务连续性。
六、方案实施注意事项1.充分评估业务需求,确保方案能够满足业务发展。
双活数据中心方案双活数据中心方案是一种部署在不同地理位置的两个数据中心,旨在提供高可用性和灾备恢复能力。
这种方案能够确保在一个数据中心出现故障的情况下,另一个数据中心能够顺利接管服务,并保证用户体验不受影响。
以下将详细介绍双活数据中心方案的设计和优势。
1.数据复制:双活方案需要确保两个数据中心之间的数据实时复制或者近实时复制。
这可以通过数据库的主从复制、文件同步或者数据快照实现。
数据复制的目的是保持数据的一致性,以便在故障发生时能够无缝切换到另一个数据中心。
2.心跳检测和故障切换:为了监测数据中心的健康状态,通常会设置心跳检测机制,以确保数据中心之间的连接正常。
如果主数据中心出现故障,心跳检测会及时发现,并触发故障切换机制,将服务切换到备用数据中心。
故障切换的过程应该是自动化的,以减少人工干预和减少切换时间。
3.基础设施冗余:为了实现高可用性,双活方案需要在两个数据中心都配置冗余的基础设施,包括独立的电力供应、网络连接、服务器和存储设备等。
当一个数据中心发生故障时,备用数据中心能够顺利接管服务,而不会由于基础设施故障而导致服务中断。
1.高可用性:双活方案可以提供更高的可用性,因为即使一个数据中心出现故障,另一个数据中心仍然可以继续提供服务。
这种设计可以最大限度地减少服务中断的风险,并提供卓越的用户体验。
2.灾备恢复能力:双活方案能够提供更好的灾备恢复能力。
当一个数据中心发生灾难性故障时,备用数据中心可以快速接管服务,并恢复运营。
这种方案可以最大限度地减少业务损失,并提供持续的服务。
3.地理位置容灾:由于双活方案将数据中心部署在不同地理位置,可以有效应对地域性的自然灾害或人为事故。
即使一个地区受到灾害影响,另一个地区的数据中心仍然能够正常运营,确保数据安全和业务连续性。
4.故障切换和容错能力:双活方案通常自动化故障切换,减少人工干预的需要。
这种方案可以提供更快的故障恢复时间,并减少对用户的影响。
此外,双活方案中的数据复制和冗余设计可以减少单点故障的风险,提供更可靠的服务。
双活数据中心解决方案双活数据中心解决方案1. 简介随着信息技术的快速发展,各种企业的业务以及数据量不断增加,对高可用性和数据安全性的需求也越来越高。
为了应对这种需求,很多企业选择了双活数据中心解决方案。
双活数据中心解决方案是指通过在两个数据中心之间实现数据备份和故障转移,确保业务的持续性和数据的安全性。
本文将介绍双活数据中心解决方案的基本原理和常见的实施方式。
2. 双活数据中心解决方案的基本原理双活数据中心解决方案的基本原理是通过将数据与业务同时部署在两个数据中心中,实现数据的实时备份和故障转移。
具体而言,双活数据中心解决方案包括以下几个核心要素:2.1 数据同步在双活数据中心解决方案中,需要确保两个数据中心中的数据保持一致性。
为此,需要使用数据同步技术,将数据从一个数据中心实时同步到另一个数据中心。
常用的数据同步技术包括:- 数据复制:将数据从一个数据中心复制到另一个数据中心。
这种技术通常使用异步复制,可以在一定程度上提高性能。
- 日志复制:将数据中心的操作日志实时复制到另一个数据中心,然后在另一个数据中心进行重放。
这种技术可以保证数据的完整性和一致性。
2.2 故障检测与切换在双活数据中心解决方案中,需要实时监测数据中心的运行状态,一旦发现故障,需要及时切换到备用数据中心,确保业务的持续性。
常见的故障检测与切换技术包括:- 心跳检测:通过定时发送心跳包,检测数据中心的运行状态。
一旦发现数据中心不可用,即切换到备用数据中心。
- 自动故障切换:通过自动化的脚本或工具,实现对数据中心的故障检测和切换。
这种技术可以提高故障切换的速度和准确性。
2.3 负载均衡与性能优化在双活数据中心解决方案中,需要将用户的请求分发到两个数据中心中,实现负载均衡和性能优化。
常见的负载均衡与性能优化技术包括:- DNS负载均衡:通过将域名解析到多个IP地址,实现请求的分发和负载均衡。
这种技术简单易用,但对故障切换支持较弱。
双活数据中心建设方案1. 引言随着数字化时代的到来,企业对数据的依赖程度越来越高。
为了保障数据的高可用性和业务的持续运行,越来越多的企业开始选择在建设双活数据中心。
双活数据中心是指建设两个相互独立的数据中心,在一定的范围内能够实现数据的实时同步,以实现高可用性和容灾备份的要求。
本文将介绍双活数据中心的概念和建设方案,并提供一些建议和最佳实践。
2. 双活数据中心的概念双活数据中心是指在不同的地理位置上建设两个相互独立的数据中心,每个数据中心都具备完整的计算、存储和网络设施,能够实时同步数据,并能够相互承担主备关系,以实现高可用性和容灾备份的目标。
双活数据中心的主要特点包括:•高可用性:当其中一个数据中心出现故障时,另一个数据中心可以立即接管业务,并保证业务的持续运行;•容灾备份:数据中心之间实时同步数据,一旦发生灾难性事故,可以快速恢复业务,保证数据的安全性;•负载均衡:双活数据中心可以实现用户请求的负载均衡,提高系统的性能和可扩展性;•流量调度:通过DNS负载均衡和流量调度技术,将用户的请求分配到合适的数据中心,提高响应速度和用户体验。
3. 双活数据中心的建设方案3.1 网络架构设计在双活数据中心的建设中,网络架构设计是非常重要的一环。
合理的网络架构可以保证数据中心之间的实时通信和数据同步。
3.1.1 内部网络架构双活数据中心的内部网络架构应该具备高可用性和容灾备份的特点。
常见的网络架构设计包括:•网络冗余:采用冗余的网络设备和链路,防止单点故障导致网络中断;•拓扑设计:采用多层结构的网络拓扑,区分核心层、汇聚层和接入层,提高网络的可管理性和可扩展性;•路由策略:通过合理的路由策略,保证数据的快速传输和业务的顺利进行;•安全策略:加强网络的安全防护措施,防止恶意攻击和数据泄露。
3.1.2 外部网络架构双活数据中心之间的网络通信需要考虑跨地理位置的问题。
常见的外部网络架构设计包括:•建立专线连接:通过建立专线连接或VPN隧道,保证数据中心之间的实时通信和数据同步;•BGP协议路由:采用BGP协议路由,实现双活数据中心之间的网络负载均衡和故障切换;•CDN加速:采用CDN加速技术,提高用户访问速度和数据传输效率。
双活数据中心(业务层)方案一、需求背景:随着数据的大集中,银行纷纷建设了负责本行各业务处理的生产数据中心机房(一般称为数据中心),数据中心因其负担了全行业务,所以其并发业务负荷能力和不间断运行能力是评价一个数据中心成熟与否的关键性指标。
近年来,随着网上银行、手机银行等各种互联网业务的迅猛发展,银行数据中心的业务压力业成倍增加,用户对于业务访问质量的要求也越来越高,保障业务系统的7*24小时连续运营并提升用户体验成为信息部门的首要职责。
商业银行信息系统的安全、稳定运行关系着国家金融安全和社会稳定,监管机构也十分重视商业银行的灾难备份体系建设,多次发布了商业银行信息系统灾难备份的相关标准和指引,对商业银行灾备系统建设提出了明确的要求。
为适应互联网业务的快速增长,保障银行各业务安全稳定的不间断运行,提高市场竞争力,同时符合监管机构的相关要求,建设灾备、双活甚至多活数据中心正在成为商业银行的共同选择。
二、发展趋势:多数据中心的建设需要投入大量资金,其项目周期往往很长,涉及的范围也比较大。
从技术上来说,要实现真正意义上的双活,就要求网络、应用、数据库和存储都要双活。
就现阶段来看,大多数客户的多数据中心建设还达不到完全的双活要求,主流的建设目标是实现应用双活。
目前客户建设多数据中心的模型可以归纳为以下几种:1.单纯的数据容灾:正常情况下只有主数据中心投入运行,备数据中心处于待命状态。
发生灾难时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。
这种模式只能解决业务连续性的需求,但用户无法就近快速接入。
灾备中心建设的投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,造成了巨大的浪费。
2.构建业务连续性:两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服务且互为备份。
但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,数据库读写操作都在主中心进行,灾备中心进行数据同步。
发生灾难时,数据中心间的数据库可以快速切换,避免业务中断。
双活数据中心可充分盘活企业闲置资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。
3.提升业务服务能力:多个数据中心同时对外提供服务且互为备份,各中心的数据库可同时处理应用的读写请求,网络、存储、应用和数据库全部实现多活。
各数据中心独立运营,用户流量可被智能调度,形成灵活、弹性和可扩展的面向服务的业务架构。
三、业务目标:用户建设多数据中心的思路和建设模型略有不同,但大多数用户的主要建设目标可以归纳为以下几点:◆流量分发用户访问流量可灵活、弹性的调度到多个数据中心,使各数据中心压力相对均衡,保证用户接入最近最快速的数据中心节点,提高用户访问体验。
◆故障切换当出口链路或内部服务器出现异常时,运维人员可第一时间获悉故障情况,业务可根据需要自动或手动平滑切换至正常节点,保证用户访问的连续性。
◆业务安全数据中心所处位置基础设施完善,水电通信供应稳定,数据中心内部有相应技术手段保证整个数据中心抵抗DDos攻击,各业务系统不被黑客非法入侵。
◆环境一致性多个数据中心对用户来说理应是透明的,其对外服务时提供统一接口,各数据中心内部数据和服务能力需要完全一致,且随时处于可切换状态。
四、技术实现逻辑我们把整个数据中心在逻辑上分为接入层和服务层,其逻辑流程如下:分层链路层服务层五、总体设计总行数据中心整体上分为主中心和灾备中心,二者的网络架构、业务系统和服务能力都基本相同,同时对外提供服务,形成双活数据中心。
数据中心内部划分为互联网业务区(提供外网服务,如手机银行、网上银行等)、核心生产业务区(传统生产业务,如ATM、柜面等)、数据库区(生产/查询)和业务测试区,出于成本考虑,灾备数据中心不设业务测试区。
主备数据中心和各一级分行之间通过专线互联,利用动态路由协议组建企业内部专网。
数据中心的对外业务集中在互联网业务区,通常使用域名方式对外发布,客户端访问业务系统时,需要先由DNS将域名解析为IP地址,然后再访问该目标IP。
对外业务的全局负载通常利用DNS解析实现,其可根据用户地理位置、用户所属运营商和网络质量、数据中心服务能力等因素作为判断依据,为不同用户返回不同的IP地址,实现流量的合理分配。
对于数据中心的内网业务,一部分与外网业务相同,通过域名发布。
另一部分与一级分行业务类似,直接通过IP 地址访问。
对于通过IP地址访问的业务,内网全局负载采用IP-Anycast(RHI 路由注入)技术实现,其原理是在各数据中心以相同IP发布业务,由动态路由协议根据COST值等参数用户判断访问的最佳路径。
六、互联网业务全局负载(以网银为例)1.设计模型我们把网银业务从逻辑上分为接入侧和服务侧,接入侧包括出口链路、全局负载设备;服务侧包括WEB服务单元、APP服务单元和DB服务单元。
WEB 服务单元包含SSL卸载设备、WAF防火墙、负载均衡和服务器;APP服务单元包含防火墙、负载均衡和服务器;DB服务单元包含防火墙、负载均衡、数据库审计和数据库。
WEB服务单元和APP服务单元在2个数据中心同时提供服务,实现应用双活。
考虑到数据强一致性、技术成熟度和成本等因素,双数据中心间的DB服务单元建议主备部署,数据中心内部的数据库集群可结合本地负载均衡实现多活。
为达到最佳负载效果,需要各服务单元的负载设备可以访问其他数据中心对应服务单元的服务器,但优先调度本地服务器。
2.实现方式(1)流量调度数据中心层面:我们推荐使用两层逻辑算法的智能DNS调度策略,首先,全局负载设备会判断用户的地理位置,将用户调度到就近的数据中心,解决南北互访的问题;其次,根据用户所属运营商选择对应链路供用户接入,解决跨运营商访问慢的问题。
此外,全局负载还可对客户端LDNS发起反向探测,判断用户网络质量,为用户选择最佳接入路径。
服务单元层面:WEB、APP和DB服务单元都配备了本地负载均衡器,用户访问流量到达数据中心内部后,由服务单元的负载设备根据预设策略分发给各服务器,可根据用户需求灵活选择轮询、优先级、最小连接等算法。
(2)业务连续性数据中心层面:通过DC Cookie保证用户接入同一数据中心。
用户首次访问时,本地WEB负载设备在响应数据包中插入DC Cookie,当客户端网络发生变化时,第二次访问就可能被调度到其他数据中心,这时其他数据中心的WEB 负载设备会识别该Cookie,将用户请求转发至第一次处理该用户访问的WEB 负载设备,再由该负载设备进行调度。
服务单元层面:WEB服务单元的负载建议通过cookie会话保持(插入、改写和被动)保证业务连续性;APP服务单元的负载可通过cookie或源IP会话保持保证业务连续性(是否需要会话保持,选择何种会话保持方式需要结合应用具体情况);DB服务单元一般不需要会话保持。
(3)健康状态检查服务单元层面:通过内置的应用级健康监视器对服务器进行主动探测,提供HTTP、HTTPS、RADIUS、FTP等常用模板。
对于其他应用,提供接口供用户自定义检测内容和响应内容。
此外,还提供极具特色的被动健康检查功能,通过对TCP和HTTP协议的数据交互做采样分析,判断服务器的健康状态。
数据中心层面:全局负载与服务侧的各区域负载均衡联动,实时共享信息,判断服务侧整体服务能力;同时全局负载设备会探测出口各链路健康状态,结合服务侧整体服务能力和设备自身负荷情况,综合判断该数据中心的健康状态(正常、繁忙、故障)。
(4)故障切换服务单元层面:服务单元内部某服务器繁忙或故障时,将用户请求调度到其他正常服务器。
数据中心层面:a.某数据中心的WEB或APP服务器全部繁忙或全部故障时,用户接入链路不切换,通过专线将数据转发至正常数据中心对应服务单元。
b.主数据中心的数据库服务器全部故障时,用户接入链路不切换,通过专线将直接激活备数据中心的数据库,实现数据库一键切换。
数据库切换前需要验证数据库的正确性,用户需要完成数据验证并保证数据库按顺序切换。
c.数据中心的所有链路同时故障时,全局负载设备将用户流量平滑牵引至正常数据中心。
单链路故障时,可根据用户需求切换至本中心其他链路或其他中心同ISP链路。
此外,当某数据中心出现服务能力不足时(链路繁忙、服务单元繁忙等),全局负载设备还可以基于数据中心的整体健康得分情况将用户分流至其他数据中心,保障用户正常访问。
(5)安全保障数据中心层面:a.网络出口处部署DDos防护设备并在运营商处购买流量清洗服务,保证数据中心整体安全。
b.网络出口处部署FW和IPS设备,从网络层和应用层保证数据中心不被恶意入侵。
c.全局负载设备提供DNS防火墙功能,充分保证DNS安全。
DNSSEC 支持、UDP Flood、DNS 放大和反射服务单元层面:各服务单元部署防火墙,保证区域安全。
WEB服务单元直接面向互联网用户,需要部署SSL卸载设备实现SSL加解密,提高业务访问安全。
同时,通过部署WAF保障WEB服务器的安全。
(6)业务优化加速a.跨数据中心的数据库同步需占用大量带宽资源,且数据量非常大,部署WOC设备可大幅压缩传输数据,削减流量。
WEB或APP服务单元跨数据中心通信时,通过WOC设备的协议优化和流缓存等技术实现加速。
当二者同时需要大量带宽资源时,优先保证数据库同步。
b.互联网区的WEB服务单元直接面向公网,受公网网络质量影响较大,负载均衡可通过协议优化、数据压缩和智能加速等技术减少网络环境影响,提高用户访问体验。
此外,外网用户会有大量重复请求,通过负载设备的高速缓存技术,对静态和内容进行缓存,减少服务器数据交互,降低服务器性能压力,提高访问速度。
(7)其他a.负载设备在服务单元内部通过旁路部署,为保证来回数据一致需要开启SNAT功能,一般情况下,WEB服务器都需要统计用户访问源IP,可通过负载设备在HTTP头部插入X-Forwarded-for字段来透传用户真实源IP。
b.数据中心网络出口对各类设备性能要求较高,针对某些传统防火墙性能不足的情况,可以在防火墙前后各部署负载均衡设备,实现防火墙的负载。
需验证具体方案,包括防火墙透明和路由部署等问题。
c.考虑到极端情况,单数据中心需要能承载所有业务压力,建议选择2倍于实际性能需求的负载均衡设备。
负载均衡设备自身拥有过载保护机制,当CPU、内存等指标达到阀值时,向用户发出告警信息,并重定向或丢弃后续新建连接。
七、内网业务全局负载(以一级分行为例)1.设计模型各分行数据中心与总行数据中心通过动态路由协议互联,形成大的企业内网环境。
其大多数业务(ATM、POS、签章、柜面等)通过IP地址直接访问,利用RHI路由注入的方式对外发布。
负载设备以M+N集群的方式分别部署在两个数据中心,不同的业务系统由不同的负载设备承载,解决了应用集中的风险问题,同时提供灵活的应用部署和无缝业务切换。