一种适应网络拥塞的网络端到端时延估算模型
- 格式:pdf
- 大小:111.54 KB
- 文档页数:4
QoS---QoS服务模型、影响⽹络质量的因素QoS服务模型传统的⽹络设备在处理报⽂转发时,会依据先到达的报⽂优先被转发的机制进⾏处理,所以这样就会导致当⽹络发⽣拥塞时,⼀些关键业务的通信质量就得不到保障(如语⾳延迟、视频卡顿、关键业务⽆法通信等),进⽽影响到客户体验QoS在带宽有限的情况,根据不同的流量,提供不同的优先服务⼀.影响通信质量的因素1.带宽⽹络的最⼤带宽是由传输路径的最⼩带宽决定的⽹络带宽不⼀致,出现拥塞点FIFO队列:先进先出2.⽹络时延:发送端到接收端的路径所有时延总和时延超过50MS,认为⽹络质量不好处理时延:⽹络设备内部处理等待时延传输时延:传输介质和传输距离决定队列时延:⽹络设备内部数据调度的等待时间串⾏化时延:链路上第⼀个bit⾄发完最后⼀bit所需时间3.抖动每个报⽂到达⽬的的时延不同所导致,每个报⽂到达的最⼤时间差⼀般抖动不超过30MS例如⼀个时延60ms,⼀个时延30s,那么抖动就是60ms-30ms=30ms4.丢包丢包由很多因素导致处理过程:CPU繁忙导致⽆法处理报⽂排队过程:在队列时,可能由于队列被装满⽽导致丢包传输过程:链路的种种原因丢包率⼀般不能⼤于2%⼆、服务模型1.尽⼒⽽为模型(默认)best-effort通过增⼤⽹络带宽,硬件性能提升⽹络通信质量优点:效果显著缺点:成本代价⼤,存在⼀定的中断业务风险(替换设备) 2.综合服务模型Integrated Services Model应⽤程序发送消息前需要先向⽹络设备申请带宽和服务,收到设备同意后,程序才会发出报⽂,通过RSVP协议保障业务带宽,延时实现复杂(运⾏RSVP协议),空闲时独占带宽,使⽤率低通过RSVP协议,申请预留带宽资源3.差分服务模型分类、标记不同流量,定义不同处理动作,进⼊队列中按照调度机制实现差分服务将⽹络的流量分成多个类,形成多个队列,每个类有不同的优先转发、丢包率,时延等差分时服务域针对报⽂进⾏区别服务的区域DS边界DS域的⽹络⼊⼝设备节点负责流量的分类,标记DS节点DS域中间设备,出⼝设备根据报⽂标记将外部优先级(报⽂)映射成本地优先级(设备内部)是否映射由设备决定,如果设备不信任该流量就不会映射转换其优先级根据本地优先级将报⽂放⼊不同的缓存队列,利⽤调度技术,使其优先转发每个DS节点独⽴,对报⽂处理⽅式可以不⼀致灵活性缺点需要在每台设备部署,对⼈员技术要求⾼实现差分服务的关键技术:报⽂分类和标记(报⽂优先级字段,DSCP)拥塞管理(队列技术)、拥塞避免(尾丢弃)流量整形和流量监管(令牌桶)优点缺点尽⼒⽽为服务模型实现机制简单对不同业务流不能进⾏区分对待综合服务模型可提供端到端QoS服务,并保证带宽、延迟需要跟踪和记录每个数据流的状态,实现较复杂,且扩展性较差,带宽利⽤率较低区分服务模型不需跟踪每个数据流状态,资源占⽤少,扩展性较强;且能实现对不同业务流提供不同的服务质量需要在端到端每个节点都进⾏⼿⼯部署,对⼈员能⼒要求较⾼。
2015年3月Journal on Communications March 2015 第36卷第3期通信学报V ol.36No.3 IP网络时延敏感型业务流自适应负载均衡算法杨洋1,2,3,杨家海1,2,王会1,2,李晨曦1,2,王于丁1,2(1. 清华大学网络科学与网络空间研究院,北京100084;2. 清华信息科学与技术国家实验室(筹),北京100084;3. 西安通信学院信息管理中心,陕西西安710106)摘 要:互联网对时延敏感的业务数据流,要求具有较低的端到端时延,但是网络拥塞的发生,将会使服务质量无法保证。
基于链路关键度提出了一种新的自适应负载均衡路由算法(LARA,load adaptive routing algorithm),能最大限度地避开拥塞链路从而减少端到端延迟。
该算法通过得到一个优化目标函数,并利用凸优化理论将优化目标函数分解为若干个子函数,最终得到一个简单的分布式协议。
利用NS2仿真器在基于CERNET2真实的拓扑结构上进行仿真实验,同时与网络中能普遍部署的等开销多路径(ECMP,equal-cost multi-path)算法相比较,通过测试反馈时延、分组丢失率、流量负载,结果表明LARA具有更好的自适应性和健壮性,性能相比更优。
关键词:网络拥塞;关键链路;链路关键度;多路径路由;负载均衡中图分类号:TP393.1 文献标识码:ATowards load adaptive routing based on link criticaldegree for delay-sensitive traffic in IP networksYANG Yang1,2,3, YANG Jia-hai1,2, WANG Hui1,2, LI Chen-xi1,2, WANG Yu-ding1,2(1. Institute for the Network Sciences and Cyberspace, Tsinghua University, Beijing 100084, China;2. Tsinghua National Laboratory for Information Science and Technology (TNList), Beijing 100084, China;3. Information Management Center, Xi’an Communication Institute, Xi’an 710106, China )Abstract: Delay-sensitive traffic requires lower end-to-end delay in IP networks, such as online video, VoIP, video con-ference. Based on the criticality degree of link. A load adaptive routing algorithm (LARA) was presented which could avoid the link to be congested to reduce the end-to-end delay. Firstly, an optimization objective function has been put forward; and then decomposed into several sub-functions by using convex optimization theory; finally, the optimization objective function and sub-functions were transformed into a simple distributed protocol. LARA with ECMP (equal-cost multipath) routing strategy was compared which was widely deployed in the network by using NS2 simulation under CERNET2 topology. By evaluating the feedback delay, packet loss rate and traffic load, the results show that LARA can exhibit good performance and achieve excellent load balance, and meanwhile improve the robustness of the link when using multipath routing technology.Key words: network congestion; critical link; criticality degree of link; multipath routing; load balance1引言伴随着宽带互联网增值业务进入消费者市场,交互式应用程序变得越来越流行,如视频直播、VoIP、多媒体会议、在线游戏等。
确定性网络时延计算公式确定性网络时延计算公式。
确定性网络时延是指在网络中传输数据所需的时间,它是网络性能的重要指标之一。
在计算网络时延时,需要考虑到数据在传输过程中所经历的各种延迟,包括传输延迟、处理延迟、排队延迟等。
确定性网络时延计算公式是用来计算这些延迟的数学表达式,它可以帮助我们更准确地评估网络的性能和优化网络的设计。
确定性网络时延计算公式包括传输延迟、处理延迟和排队延迟三个部分。
传输延迟是指数据在网络中传输所需的时间,它取决于数据包的大小和网络的带宽。
处理延迟是指数据在节点上进行处理所需的时间,它取决于节点的处理能力和负载情况。
排队延迟是指数据在节点的缓冲队列中等待传输所需的时间,它取决于队列的长度和数据包的到达速率。
传输延迟的计算公式为:Tt = L / R。
其中,Tt为传输延迟,L为数据包的长度,R为网络的带宽。
这个公式表明,传输延迟与数据包的长度成正比,与网络的带宽成反比。
因此,在设计网络时,可以通过增加带宽或减小数据包的长度来减小传输延迟。
处理延迟的计算公式为:Td = D / C。
其中,Td为处理延迟,D为数据包的大小,C为节点的处理能力。
这个公式表明,处理延迟与数据包的大小成正比,与节点的处理能力成反比。
因此,在设计节点时,可以通过增加处理能力或减小数据包的大小来减小处理延迟。
排队延迟的计算公式为:Tq = L / (μλ)。
其中,Tq为排队延迟,L为数据包的平均长度,μ为数据包到达队列的平均速率,λ为数据包离开队列的平均速率。
这个公式表明,排队延迟与数据包的平均长度成正比,与数据包到达队列的速率和离开队列的速率的差值成反比。
因此,在设计队列时,可以通过控制数据包的到达速率和离开速率,或增加队列的长度来减小排队延迟。
综合上述三个部分的延迟,确定性网络时延的计算公式为:T = Tt + Td + Tq。
这个公式表明,确定性网络时延是传输延迟、处理延迟和排队延迟的总和。
通过这个公式,我们可以更准确地评估网络的性能,找出影响网络时延的关键因素,并采取相应的措施来优化网络的设计。
QOS策略QoS术语解释QoS的英文全称为"Quality of Service",中文名为"服务质量"。
QoS是网络的一种安全机制, 是用来解决网络延迟和阻塞等问题的一种技术。
在正常情况下,如果网络只用于特定的无时间限制的应用系统,并不需要QoS,比如Web 应用,或E-mail设置等。
但是对关键应用和多媒体应用就十分必要。
当网络过载或拥塞时,QoS 能确保重要业务量不受延迟或丢弃,同时保证网络的高效运行。
QoS具有如下功能:1.分类分类是指具有QoS的网络能够识别哪种应用产生哪种数据包。
没有分类,网络就不能确定对特殊数据包要进行的处理。
所有应用都会在数据包上留下可以用来识别源应用的标识。
分类就是检查这些标识,识别数据包是由哪个应用产生的。
以下是4种常见的分类方法。
(1)协议有些协议非常“健谈”,只要它们存在就会导致业务延迟,因此根据协议对数据包进行识别和优先级处理可以降低延迟。
应用可以通过它们的EtherType进行识别。
譬如,AppleTalk协议采用0x809B,IPX使用0x8137。
根据协议进行优先级处理是控制或阻止少数较老设备所使用的“健谈”协议的一种强有力方法。
(2)TCP和UDP端口号码许多应用都采用一些TCP或UDP端口进行通信,如HTTP采用TCP端口80。
通过检查IP数据包的端口号码,智能网络可以确定数据包是由哪类应用产生的,这种方法也称为第四层交换,因为TCP和UDP都位于OSI模型的第四层。
(3)源IP地址许多应用都是通过其源IP地址进行识别的。
由于服务器有时是专门针对单一应用而配置的,如电子邮件服务器,所以分析数据包的源IP地址可以识别该数据包是由什么应用产生的。
当识别交换机与应用服务器不直接相连,而且许多不同服务器的数据流都到达该交换机时,这种方法就非常有用。
(4)物理端口号码与源IP地址类似,物理端口号码可以指示哪个服务器正在发送数据。
Quality of Service (QoS)第一部分 Qos的定义拥塞产生的原因:∙以太网络速度不匹配:当速度不同的网络设备进行通信的时候,就可能导致网络的拥塞。
例如,吉比特以太网上的服务器将数据发送给10M以太网上的服务器的时候,由于交换机的缓冲空间限制,可能导致10M以太网上的服务器出战接口发生拥塞。
∙多对一交换:当采用多对一的方式聚集交换机时,就可能导致网络的拥塞。
例如,多台接入层交换机连接到同一台分布层交换机的时候,这些接入层交换机的交换矩阵的的带宽总和通常超过了分布层交换机的交换机矩阵的能力∙聚集:当多台以太网设备通过一台以太网连接进行通信或与单台网络设备/服务器通信的时候,就可能导致网络的拥塞∙异常行为:网络设备的硬件/软件故障可能导致广播风暴或其它类型的网络风暴,进而使多个接口发生拥塞。
软件故障包括计算机蠕虫和病毒,导致数据包风暴,进而拥塞企业或ISP的网络。
以上情况下都有可能会导致数据包在传输的过程中丢失或延迟。
拥塞不是唯一影响网络可用性和稳定性的因素,即使在有足够带宽的多层交换网络中,也存在延迟(Delay)、抖动(Jitter)和丢包(packet less),对于一些对延迟很敏感的应用(如语音)就需要有服务质量保障(Qos)。
Qos的定义Qos可从多个不同途径来定义,将所有这些定以结合在一起将会得到所有定义中最好的一个。
从技术角度而言,Qos是网络中管理数据流的可用带宽、延迟、抖动以及分组丢弃的技术集合。
所有的Qos机制的目的就是影响这4个特征中的至少一个,某些情况下甚至是全部。
1.可用的带宽带宽本身的定义是在特定的网络介质或者协议中额定的吞吐量。
带宽的本身缺乏的吞吐量,当多个流量在一个受限的带宽上传送的过程时,就会产生对带宽的竞争来抢占发送自己的数据。
带宽的使用最大的带宽:从主机到服务器所经过的所有链路带宽中最小的带宽值如:(10M、256K、512K、100M)中最小的带宽256K,作为最大的带宽可用的带宽:最大的带宽/流量的个数当服务器发送一个大文件(如视频),为了保证文件的流畅型就必须保证一个大的可用的带宽来支持。
时延估计算法
时延估计算法是一种用于估计信号传输时延的方法。
它通常基于源距离接收阵的距离和方向,以及两个阵元间由于声程差而产生的到达时延差。
基本互相关时延估计方法的原理是,假设两个接收信号分别为$x_1(t)$和$x_2(t)$,其中$x_1(t)=s(t)+n_1(t)$,$x_2(t)=s(t-D)+n_2(t)$。
时延估计即估计其中的$D$值。
由于信号传播过程中引入了噪声$n$,所以对时延估计的问题进行研究时,其实是一个统计问题,研究的是一个随机信号分析。
时延估计中常使用最大似然估计,因为其具有无偏、有效和一致性三大性质。
而时延估计的最大似然估计经过推导可以发现其是一个相关器。
理论上在时刻$D$时,两阵元信号相似度最高,此时是相关器峰值位置。
我们在对两路信号作互相关之后再进行峰值检测即可得到时延$D$。
广义互相关时延估计方法的基本流程如下:首先对两路接收信号$x_1$和$x_2$作预滤波处理,然后对两路预处理输出信号$y_1$,$y_2$,求取互相关函数,称之为GCC函数,最后对GCC函数作峰值检测,对应的时间值即为时延估值$D$。
总的来说,时延估计算法在实际应用中受到了广泛的关注和应用,但在不同的应用场景中,需要根据实际情况选择合适的算法和参数配置。
一种基于SRV6技术开展时延敏感算力业务调度的方法【摘要】为满足云网融合等业务的发展需求,建设优质高效的网络,为高价值用户提供差异化服务,保证各类业务的服务质量,河北移动建设了省内云专网。
为保障政企专线、云网专线等高价值业务对QoS保障方面的要求,云专网建设同步引入了SDN、SRv6-TE等技术,可以实现基于SDN的流量调度应用,减少拥塞、并提高链路利用率,增加运维效率。
通过对省内云专网不同链路时延进行端到端的分析,计算出时延较短的路径并据此建立SRv6隧道,并通过BGP-FLowSpec进行引流,确保时延敏感业务流量按需走到低时延路径上,达到提升用户体验的目的。
【关键词】SDN;SRV6;BGP-FLowSpec;算力;云专网;IP工作台一、云专网网络概述河北移动目前根据《中国移动省内云专网建设指导意见》完成了河北省内云专网的建设工作,其中组网规划采用了云网设备异局址成对设置,“口字型”接入的组网方式。
为实现流量精准调度,云专网省内网不部署链路捆绑。
并配合传输层面云网PE所在局址(机楼)应具备至少2 条不同出局路由光缆;从而使河北移动省内云专网的组网架构可以在不同节点间呈现多条不同质量的链路,为时延敏感算力业务调度具备了网络调度的基础。
图1-1 河北移动云专网示意图二、网络调度的基本原理河北移动在云专网建设同期规划建设了IP运维工作台,使用网络云内资源部署SDN控制器,通过CMNET打通各地市云网PE到SDN控制器的网络,实现SDN 控制器与地市云网PE路由器对接;通过SNMP/Telemetry协议监测云网PE运行状态,设备故障后第一时间发出告警;SDN控制器通过BGP-LS采集网络信息、路由、SRv6 SID、SRv6 Policy状态等信息,生成完整的网络拓扑,同时使用Telemetry采集TWAMP测量结果,实时采集网络中各链路质量,完成网络状态的可视化展示。
三、基于时延敏感业务的调度方法实现本方案利用河北移动云专网具备相关基础协议,采用L3VPNv4 over SRv6 TE Policy方式完成。