大二层网络技术
- 格式:doc
- 大小:203.50 KB
- 文档页数:6
⼤⼆层⽹络----Vxlan技术1. ⼆层转发的概念 ⼆层转发即交换机依据mac地址进⾏转发,交换机维护⼀张mac表,接受到报⽂后识别报⽂的⽬的mac地址,然后将数据包转发到mac 表对应的端⼝上。
VxLAN技术⾸先会抽象⼀个overlay平⾯,这个overlay平⾯就等同于⼀个⼆层交换机,其次会定义若⼲VTEP节点,VTEP 节点就相当于⼆层交换机的端⼝,同时维护⼀个vtep节点的mac表,数据报⽂到达vtep节点后,解析⽬的vtep的mac地址,然后将数据包转发到mac 表对应的vtep节点上,与⼆层交换极其类似,因此VxLAN这种在物理平⾯上抽象出的逻辑平⾯⼜被称为⼤⼆层平⾯。
这种技术主要⽤在数据中⼼⾥⾯。
2. 现今数据中⼼⾯临的挑战a、虚拟机规模受⽹络设备表项规格的限制在传统⼆层⽹络环境下,数据报⽂是通过查询MAC地址表进⾏⼆层转发。
服务器虚拟化后,VM的数量⽐原有的物理机发⽣了数量级的增长,伴随⽽来的便是VM⽹卡MAC地址数量的空前增加。
⽽接⼊侧⼆层设备的MAC地址表规格较⼩,⽆法满⾜快速增长的VM数量。
b、⽹络隔离能⼒有限VLAN作为当前主流的⽹络隔离技术,在标准定义中只有12⽐特,因此可⽤的VLAN数量仅4096个。
对于公有云或其它⼤型虚拟化云计算服务这种动辄上万甚⾄更多租户的场景⽽⾔,VLAN的隔离能⼒⽆法满⾜。
c、虚拟机迁移范围受限由于服务器资源等问题(如CPU过⾼,内存不够等),虚拟机迁移已经成为了⼀个常态性业务。
虚拟机迁移是指将虚拟机从⼀个物理机迁移到另⼀个物理机。
为了保证虚拟机迁移过程中业务不中断,则需要保证虚拟机的IP地址、MAC地址等参数保持不变,这就要求虚拟机迁移必须发⽣在⼀个⼆层⽹络中。
⽽传统的⼆层⽹络,将虚拟机迁移限制在了⼀个较⼩的局部范围内。
为了应对传统数据中⼼⽹络对服务器虚拟化技术的限制,VXLAN技术应运⽽⽣,其能够很好的解决上述问题。
3. Vxlan格式及封装格式Vxlan通过将逻辑⽹络中通信的数据帧封装在物理⽹络中进⾏传输,封装和解封装的过程由VTEP节点完成。
大二层网络技术背景及主要技术方向一、为什么需要大二层传统的三层数据中心架构结构的设计是为了应付服务客户端-服务器应用程序的纵贯式大流量,同时使网络管理员能够对流量流进行管理。
工程师在这些架构中采用生成树协议(STP)来优化客户端到服务器的路径和支持连接冗余,通常将二层网络的范围限制在网络接入层以下,避免出现大范围的二层广播域;虚拟化从根本上改变了数据中心网络架构的需求,既虚拟化引入了虚拟机动态迁移技术。
从而要求网络支持大范围的二层域。
从根本上改变了传统三层网络统治数据中心网络的局面。
具体的来说,虚拟化技术的一项伴生技术—虚拟机动态迁移(如VMware的VMotion)在数据中心得到了广泛的应用,虚拟机迁移要求虚拟机迁移前后的IP和MAC地址不变,这就需要虚拟机迁移前后的网络处于同一个二层域内部。
由于客户要求虚拟机迁移的范围越来越大,甚至是跨越不同地域、不同机房之间的迁移,所以使得数据中心二层网络的范围越来越大,甚至出现了专业的大二层网络这一新领域专题。
【思考1、IP及MAC不变的理由:对业务透明、业务不中断】【思考2、IP及MAC不变,那么为什么必须是二层域内?IP不变,那么就不能够实现基于IP的寻址(三层),那么只能实现基于MAC的寻址,既二层寻址,大二层,顾名思义,此是二层网络,根据MAC地址进行寻址】传统网络的二层为什么大不起来在数据中心网络中,“区域”对应VLAN的划分。
相同VLAN 内的终端属于同一广播域,具有一致的VLAN-ID,二层连通;不同VLAN内的终端需要通过网关互相访问,二层隔离,三层连通。
传统的数据中心设计,区域和VLAN的划分粒度是比较细的,这主要取决于“需求”和“网络规模”。
传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。
不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。
同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。
大二层的工作原理
大二层是计算机网络中的一个重要概念,它是指数据链路层的第二个子层,也叫子网接入层或网桥层。
它的主要作用是实现不同物理网络之间的通信。
大二层的工作原理主要是通过MAC地址来实现通信控制,也就是数据的传输控制。
当一个数据包到达网桥时,它会比对源MAC地址和目的MAC地址,判断数据包应该转发至哪个端口。
如果源MAC地址和目的MAC地址都在同一个端口,则网桥会把数据包丢弃;如果源MAC 地址和目的MAC地址在不同的端口,则网桥会将数据包转发到目标端口。
为了避免网络中的环路,大二层采用了“学习”机制。
当一个数据包到达网桥时,网桥会将源MAC地址和对应的端口记录下来,当下一次有数据包到达时,它会对比目的MAC地址是否已经在记录中有对应端口,如果有,则直接转发;如果没有,则把数据包广播到其他的端口上。
总之,大二层工作原理使得不同物理网段之间的通信变得简单、高效,实现了数据包的快速传输和有效控制。
在云计算时代下,数据中心内部一般采用分布式架构处理海量数据存储、挖掘、查询、搜索等相关业务,服务器和服务器之间需要进行大量的协同工作,在服务器之间产生了大量的东西向流量。
其次,数据中心普遍采用虚拟化技术,虚拟化的直接后果是使单位计算密度极大提升,物理服务器吞吐量将比虚拟化之前成数倍提升。
还有为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移。
上面这些是云计算时代下的数据中心业务需求,这些需求促进了数据中心网络架构的演进,催生了大二层网络架构的诞生,TRILL便是一种构建数据中心大二层组网的技术。
本文旨在分析云计算时代下数据中心对网络架构的需求,并提出华为基于TRILL的解决方案,帮助用户在建设数据中心网络时,能选择合适的网络解决方案以更好满足云计算业务需求。
云计算时代下数据中心对网络架构要求• 虚拟机任意迁移作为云计算的核心技术之一,服务器虚拟化已经得到越来越广泛的应用。
为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移,而不是局限在一个汇聚或接入交换机范围内进行迁移。
传统数据中心一般采用二层+三层组网架构,POD内采用二层组网,POD间通过三层网络进行互联。
VM只能在一个POD内进行迁移,如果需要跨二层区域迁移,需要更改VM 的IP地址,如果没有负载均衡器LoadBalance屏蔽等手段,应用会中断。
在云计算时代,为提升大量闲置服务器的资源利用率,计算虚拟化技术已经逐步在IDC 进行应用。
IDC运营商为了更充分的利用数据中心资源,VM需要更大的迁移范围,可以通过TRILL构建的大二层网络来实现。
• 无阻塞、低延迟数据转发云计算时代下的数据中心流量模型和传统运营商流量模型不同,数据中心中主要是服务器和服务器之间的东西向流量,数据中心网络相当于是服务器之间的总线。
1传统STP技术应用分析STP是IEEE 802.1D中定义的一个应用于以太网交换机的标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机的链路层转发行为进行控制。
如果STP发现网络中存在环路,它会在环路上选择一个恰当的位置阻塞链路上的端口——阻止端口转发或接收以太网帧,通过这种方式消除二层网络中可能产生的广播风暴。
然而在实际部署中,为确保网络的高可用性,无论是数据中心网络还是园区网络,通常都会采用具有环路的物理拓扑,并采用STP阻塞部分端口的转发。
对于被阻塞端口,只有在处于转发状态的端口及链路发生故障时,才可能被STP加入到二层数据帧的转发树中。
图1 STP引起的带宽利用率不足的问题STP的这种机制导致了二层链路利用率不足,尤其是在网络设备具有全连接拓扑关系时,这种缺陷尤为突出。
如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。
这种缺陷造成越接近树根的交换机,端口拥塞越严重,造成的带宽资源浪费就越严重。
可见,STP可以很好地支持传统的小规模范围的二层网络,但在一些规模部署虚拟化应用的数据中心内(或数据中心之间),会出现大范围的二层网络,STP在这样的网络中应用存在严重的不足。
主要表现为以下问题(如图2所示)。
图2 STP的低效路径问题示意图1. 低效路径•流量绕行N-1跳•路由网络只需N/2跳甚至更短2. 带宽利用率低•阻断环路,中断链路•大量带宽闲置•流量容易拥塞3. 可靠性低•秒级故障切换•对设备的消耗较大4. 维护难度大•链路引起拓扑变化复杂•容易引发广播风暴•配置、管理难度随着规模增加剧增由于STP存在以上种种不足,其难以胜任大规模二层网络的管理控制。
2 IRF技术应用分析H3C IRF(Intelligent Resilient Framework)是N:1网络虚拟化技术。
IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理和使用。
1传统STP技术应用分析
STP就是IEEE 802、1D中定义得一个应用于以太网交换机得标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机得链路层转发行为进行控制.如果STP发现网络中存在环路,它会在环路上选择一个恰当得位置阻塞链路上得端口-—阻止端口转发或接收以太网帧,通过这种方式消除二层网络中可能产生得广播风暴。
然而在实际部署中,为确保网络得高可用性,无论就是数据中心网络还就是园区网络,通常都会采用具有环路得物理拓扑,并采用STP阻塞部分端口得转发。
对于被阻塞端口,只有在处于转发状态得端口及链路发生故障时,才可能被STP加入到二层数据帧得转发树中。
图1 STP引起得带宽利用率不足得问题
STP得这种机制导致了二层链路利用率不足,尤其就是在网络设备具有全连接拓扑关系时,这种缺陷尤为突出。
如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。
这种缺陷造成越接近树根得交换机,端口拥塞越严重,造成得带宽资源浪费就越严重。
可见,STP可以很好地支持传统得小规模范围得二层网络,但在一些规模部署虚拟化应用得数据中心内(或数据中心之间),会出现大范围得二层网络,STP在这样得网络中应用存在严重得不足.主要表现为以下问题(如图2所示).
图2 STP得低效路径问题示意图
1、低效路径
•流量绕行N-1跳
•路由网络只需N/2跳甚至更短
2、带宽利用率低
•阻断环路,中断链路
•大量带宽闲置
•流量容易拥塞
3、可靠性低
•秒级故障切换
•对设备得消耗较大
4、维护难度大
•链路引起拓扑变化复杂
•容易引发广播风暴
•配置、管理难度随着规模增加剧增
由于STP存在以上种种不足,其难以胜任大规模二层网络得管理控制.
2IRF技术应用分析
H3C IRF(Intelligent Resilient Framework)就是N:1网络虚拟化技术。
IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理与使用。
IRF虚拟化技术不仅使多台物理设备简化成一台逻辑设备,同时网络各层之间得多条链路连接也将变成两台逻辑设备之间得直连,因此可以将多条物理链路进行跨设备得链路聚合,从而变成了一条逻辑链路,增加带宽得同时也避免了由多条物理链路引起得环路问题。
如图3所示,将接入、汇聚与核心交换机两两虚拟化,层与层之间采用跨设备链路捆绑方式互联,整网物理拓扑没有变化,但逻辑拓
扑上变成了树状结构,以太帧延拓扑树转发,不存在二层环路,且带宽利用率最高.
图3 基于IRF构建二层网络
简单来说,利用IRF构建二层网络得好处包括:
•简化组网拓扑结构,简化管理
•减少了设备数量,减少管理工作量
•多台设备合并后可以有效得提高性能
•多台设备之间可以实现无缝切换,有效提高网络HA性能目前,IRF技术实现框式交换机堆叠得窬量最大为四台,也就就是说使用IRF 构建二层网络时,汇聚交换机最多可达4台.举例来说,汇聚层部署16业务槽得框式交换机(4块上行,12块下行),配置业界最先进得48端口线速万兆单板。
考虑保证上下行1:4得收敛比,汇聚交换机下行得万兆端口数量48*12=576。
接入交换机部署4万兆上行,48千兆下行得盒式交换机.4台IRF后得汇聚交换机可以在二层无阻塞得前提下接入13824台双网卡得千兆服务器,可满足国内绝大部分客户得二层组网需求。
少部分客户期望其服务器资源池可以有效扩充到2万台甚至更大。
这样,就需要其她技术提供更大得网络容量.
3 TRILL技术应用分析
图4 数据中心Trill大二层组网架构示意图采用TRILL技术构建得数据中心大二层网络如图4所示,网络分为核心层(相当于传统数据中心汇聚层)、接入层。
接入层就是TRILL网络与传统以太网得边界;核心层RBridge不提供主机接入,只负责TRILL帧得高速转发。
每个接入层RBridge通过多个高速端口分别接入到多台核心层RBridge上。
准
确得说,TRILL最大可以支持16台核心层RBridge。
这样也就对接入层交换机提出了更高得要求:支持16端口万兆上行,160千兆下行.目前得主流千兆交换机都就是4万兆上行、48千兆下行.最高密度可以支持到10万兆上行,96千兆下行。
如果与前面IRF组网采用相同得汇聚(TRILL核心)设备与收敛比,TRILL目前最大可以支持10核心组网,其最大能力可以无阻塞得接入27648台双网卡千兆服务器.可以直观得瞧到,随着汇聚交换机数量得增加,二层网络服务器得接入规模直线上升。
这就是目前TRILL相对于IRF最明显得优势。
虽然TRILL成功扩展了虚拟机资源池得规模,但就是目前大规模得二层网络缺乏运维经验,这意味着运维成本会大幅度提升,同时给业务系统带来巨大得风险.同时,TRILL技术目前在芯片实现上存在客观缺陷:核心层不能支持三层终结,也就就是说TRILL得核心层不能做网关设备.必须要在核心层上再增加一层设备来做网关(如图5所示)。
这导致网络结构变得复杂,管理难度增加,网络建设、运维成本都会增加。
图5数据中心Trill组网网关设计架构示意图
4 SPB技术应用分析
SPB得组网方案与TRILL基本相同(图4所示)。
同样最大可以扩展16台汇聚交换机增加二层网络接入规模;同样对接入交换机得接入密度提出更高得要求;同样存在网关与SPB核心必须分离得芯片缺陷(图5所示),导致网络层次增加,管理、运维成本增加。
相对于TRILL,SPB最大得优势在于能够方便得支持VLAN扩展功能,正就是这一点吸引了很多需要支持多租户业务得运营商以及有规模运营需求得企业得关注。
5 EVI技术应用分析
由于大规模得二层网络缺乏成功得运维经验,所以最合理得虚拟化网络应该就是L3+L2网络模型。
如前文所述,由于EVI特性可以通过汇聚层与核心层之间得IP网络实现二层互通,所以通过EVI扩展多个二层域得时候不需要更改布线或就是设备,仅仅需要在汇聚设备上启用EVI特性即可.这样可以平滑得扩展二层网络得规模。
Fabricpath就是由Cisco提出,与TRILL非常相似得一种技术。
Fabricpath与TRILL对比来瞧,主要在于封装更加精简,支持多拓扑能力,在控制管理层面上精耕细作,成熟度要好一些。
就是Juniper提出得技术,将交换机得控制软件拉到外部得服务器上运行,整个网络采用集中控制集中管理得方式.缺点就是:扩展性不好,部署案例少,成熟度待检验.
业界最近出现了一种通过在vSwitch上支持L2oIP得技术,有VXlAN(Virtual eXtensibleLAN)与NVGRE(Network Virtual GRE),前者就是由VMware 与思科提出得标准,使用了L2oUDP得封装方式,支持16M得tenant ID;后者就是由HP 与微软提出得标准,使用了L2oGRE封装方式,也支持16M得tenantID.这两种技术得主要特点就是隧道得起点与终点主要在vswitch上,而不就是物理交换机上。
隧道得封装在服务器内部得vswitch就已经打好,然后将物理网络当作大得IP背板加以穿透,大二层范围可以跨DC.以期达到快速部署,灵活创建虚拟化网络得目得。