基于Nginx的Web服务器负载均衡策略改进与实现
- 格式:pdf
- 大小:1.39 MB
- 文档页数:1
一、实验背景随着互联网技术的飞速发展,网站和应用系统的访问量越来越大,对服务器资源的压力也越来越大。
为了提高系统的稳定性和性能,负载均衡技术应运而生。
负载均衡可以将请求分发到多个服务器上,从而提高系统的并发处理能力和可靠性。
本实验旨在验证负载均衡技术的有效性,通过实际操作了解负载均衡的配置、测试和分析过程。
二、实验目的1. 熟悉负载均衡的基本概念和原理。
2. 掌握负载均衡的配置方法。
3. 验证负载均衡在提高系统性能和可靠性方面的作用。
4. 分析负载均衡的优缺点。
三、实验环境1. 服务器:2台虚拟机,分别安装Linux操作系统。
2. 负载均衡器:1台虚拟机,安装Nginx负载均衡软件。
3. 测试工具:Apache JMeter。
四、实验步骤1. 配置服务器(1)在2台服务器上安装Apache HTTP服务器,并配置虚拟主机。
(2)配置服务器A的IP地址为192.168.1.100,服务器B的IP地址为192.168.1.101。
2. 配置负载均衡器(1)在负载均衡器上安装Nginx软件。
(2)编辑Nginx配置文件,配置反向代理服务器。
```upstream myapp {server 192.168.1.100;server 192.168.1.101;}server {listen 80;location / {proxy_pass http://myapp;}}}```3. 验证负载均衡(1)启动2台服务器和负载均衡器。
(2)使用Apache JMeter进行压力测试,模拟大量请求。
(3)观察服务器响应时间和负载均衡器的转发情况。
4. 分析实验结果(1)在实验过程中,负载均衡器成功地将请求分发到2台服务器上。
(2)服务器响应时间在负载均衡后有所降低,说明负载均衡提高了系统性能。
(3)负载均衡器能够根据服务器的负载情况动态调整请求分发策略。
五、实验结论1. 负载均衡技术可以有效提高系统的并发处理能力和可靠性。
nginx负载均衡中RR和ip_hash策略分析一、nginx的upstream目前支持负载均衡方式的分配1、RR(默认)每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
例如:upstream tomcats {server 10.1.1.107:88 max_fails=3 fail_timeout=3s weight=9;server 10.1.1.132:80 max_fails=3 fail_timeout=3s weight=9;}2、ip_hash每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session 的问题。
例如:upstream tomcats {ip_hash;server 10.1.1.107:88;server 10.1.1.132:80;}3、fair(第三方)按后端服务器的响应时间来分配请求,响应时间短的优先分配。
4、url_hash(第三方)按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
下面,我们针对RR和ip_hash的负载均衡策略进行分析。
因为每一种负载均衡策略都是在upstream的框架中使用,upstream控制总的工作流程,负载均衡策略仅仅提供选择或释放server的函数,所以,我们在分析RR时结合upstream(ngx_http_upstream.c)。
ip_hash大部分内容与RR一致,只是重新实现RR中的ngx_http_upstream_get_peer函数。
二、RR策略RR机制分为三个部分:初始化upstream,获取一个可用的后台服务器和释放后台服务器。
以下分析以此配置为例:upstream backend {server A max_fails=3 fail_timeout=4s weight=9;server B max_fails=3 fail_timeout=4s weight=9;server C max_fails=3 fail_timeout=4s weight=9;server D backup;Server E backup;}2.1 初始化upstream对于例子中的upstream backend来说,首先初始化各个server, 除了设置IP和端口号外,还要设置如下置weight,current_weight,max_fails和fail_timeout。
基于Nginx的Web服务器负载均衡策略改进与实现二、Nginx负载均衡原理Nginx作为反向代理服务器,可以实现将客户端的请求转发给多台后端服务器,并根据预设的策略进行负载均衡,轮询、IP哈希、权重等负载均衡算法。
当客户端向Nginx发起请求时,Nginx会将请求按照一定的负载均衡策略转发给不同的后端服务器,从而达到分担服务器负载的目的。
目前Nginx的负载均衡策略存在一定的局限性。
在轮询算法中,当后端服务器的性能不均衡时,可能会导致负载不均衡的情况。
在IP哈希算法中,当客户端IP的分布不均衡时,也可能会产生负载不均衡的情况。
有必要对Nginx的负载均衡策略进行改进,以满足实际应用中更加复杂的负载均衡需求。
三、负载均衡策略改进1. 动态调整权重在实际应用中,后端服务器的性能可能会受到影响,出现负载不均衡的情况。
假设有一组后端服务器A、B、C,初始权重分别为1、1、1,当服务器A的负载较高时,可以通过监控服务器负载情况,动态调整权重,使得请求更多地被分发到性能较好的服务器,实现更加灵活的负载均衡。
2. 基于负载情况的动态负载均衡除了简单的轮询和IP哈希算法,还可以根据后端服务器的负载情况进行动态负载均衡。
可以通过监控后端服务器的CPU、内存、磁盘等资源利用情况,结合预设的权重系数,动态调整后端服务器的负载均衡策略,使得负载更加均衡。
3. 优化负载均衡算法Nginx内置了几种负载均衡算法,可以根据实际情况选择合适的负载均衡算法。
在IP哈希算法中可以考虑加入请求的其他信息,如User-Agent、Referer等,增加哈希的维度,以便更加精准地进行负载均衡。
通过优化负载均衡算法,可以使得负载更加均衡且灵活。
四、负载均衡策略实现1. 动态调整权重的实现动态调整权重需要通过监控后端服务器的负载情况,并且实时更新Nginx的负载均衡配置。
可以通过脚本定期获取服务器负载情况,并进行动态调整权重,同时通过API接口来更新Nginx配置文件,实现动态负载均衡策略。
nginx性能分析和全⾯调优Nginx全能解析及性能调优nginx 是⼀个轻量级的、基于http的、⾼性能的反向代理的服务器和静态web服务器。
正向代理和反向代理不管是正向代理还是反向代理都是基于客户端来说的。
正向代理特点正向代理是对客户端的代理正向代理是架设在客户端的主机客户端在使⽤正向代理服务器时是要知道访问的⽬标服务的地址案例隐藏真正的访问者向服务端隐藏真正的访问者。
对于服务端来说,真正的访问者时代理服务器。
起到了隐藏客户端的作⽤。
例如:实际⽣活中的短信轰炸,你根本不知道是谁给你发的短信;ddos攻击也是这个原理,使⽤很多‘⾁鸡’机器来攻击我们的服务器,我们⽆法查找真正的攻击源。
FQ由于很多复杂的原因,导致服务器A不能直接访问服务器B,但是服务器C可以访问服务器B,⽽服务器A⼜可以访问服务器C;这时,服务器C作为服务起A的代理服务器对B进⾏访问。
⽬前的FQ软件就是使⽤这个原理。
提速同上原理⼀样,服务器A访问服务器B速度过慢,⽽服务器C访问服务器B很快,服务器A访问服务器C很快。
则使⽤代理服务器提⾼效率。
缓存增加客户端缓存,减少对服务器的请求资源的压⼒。
例如maven的nexus就是⼀个典型的客户端缓存例⼦。
授权例如,在公司中,需要对员⼯电脑进⾏外⽹监控授权,则也是使⽤这种客户端正向代理服务器。
反向代理特点反向代理是对服务端的代理反向代理是架设在服务端的主机客户端端访问的时候不知道真正服务主机的地址案例保护隐藏真正的服务客户端只能访问服务端代理服务器,⽽真正的服务端是不能直接访问的,保护了服务端。
分布式路由根据客户端不同的请求,将请求路由到不同的服务端去。
负载均衡服务端均摊客户端的请求,保证服务端的⾼可⽤。
动静分离例如图⽚、静态页⾯、css、js等,都为静态资源,将其放到对应⽬录下,客户端加载静态资源时,就不会请求到服务端,⽽只会将动态资源的请求发送到服务端,减轻服务端的压⼒。
数据缓存反向代理同正向代理⼀样具有数据缓存的功能,都是为了减少服务端的压⼒。
Web服务器性能优化方法研究与实践随着互联网的高速发展,Web服务器作为重要的网络基础设施,承担着处理用户请求、提供网页和数据的重要职责。
为了提升用户体验,保证网站的稳定性和可靠性,必须对Web服务器的性能进行优化。
本文将研究并实践一些常用的Web服务器性能优化方法。
一、并发连接处理1. 调整服务器参数在进行并发连接处理时,可以通过调整服务器的相关参数来优化性能。
例如,增加服务器的最大连接数、调整超时时间等。
这样能够更好地适应高负载的情况,提高服务器的并发处理能力。
2. 使用高性能的网络服务选择高性能的网络服务软件,如Nginx、Apache等,能够提高服务器的传输速度和吞吐量。
这些软件通常具有高度的并发处理能力和优化的网络协议,能够更好地处理大量的请求。
3. 使用负载均衡技术通过使用负载均衡技术,将请求分发到多台服务器上,可以实现更好的并发处理能力。
负载均衡可以根据服务器的负载情况动态地分配请求,确保每台服务器的负载均衡,从而提高整体性能。
二、缓存机制优化1. 静态资源缓存对于静态资源,如图片、CSS和JavaScript文件等,可以通过设置HTTP缓存头来实现浏览器缓存。
这样浏览器在下次请求时,可以直接从缓存中读取资源,减少请求到服务器的次数,提高响应速度。
2. 页面缓存对于动态生成的页面,可以将其缓存起来,下次请求时直接从缓存中读取,减少数据库或其他资源的访问,提高响应速度。
可以使用缓存插件或手动实现页面缓存。
3. CDN加速使用CDN(内容分发网络)可以将静态资源缓存在全球不同的节点上,使用户可以从最近的节点获取资源。
这样可以减少服务器的负载,提高资源的加载速度。
三、数据库优化1. 数据库索引优化对经常进行查询的列或表,可以添加索引来提高查询性能。
索引可以加快数据库的查找速度,减少磁盘IO操作。
2. 数据库连接池使用数据库连接池可以减少数据库连接的开销。
连接池可以预先创建一定数量的连接,并管理连接的分配和释放,减少数据库连接的建立和关闭的时间消耗。
基于CentOS 7系统实现Nginx负载均衡
赵琳
【期刊名称】《网络安全和信息化》
【年(卷),期】2022()2
【摘要】互联网飞速发展的今天,大用户量高并发已经成为互联网的主体。
怎样能让一个网站能够承载几万个或几十万个用户的持续访问呢?这是一些中小网站亟需解决的问题。
负载均衡(Load Balance)的意思就是分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器和其他关键任务服务器等,从而共同完成工作任务。
【总页数】4页(P96-99)
【关键词】FTP服务器;WEB服务器;应用服务器;高并发;负载均衡;操作单元;互联网【作者】赵琳
【作者单位】北京
【正文语种】中文
【中图分类】TP3
【相关文献】
1.基于centos7的squid代理系统的研究与实现
2.基于Sugon Cloudview虚拟化平台Nginx负载均衡的实现
3.基于Nginx负载均衡实现tomcat集群部署
4.大数据下基于Nginx负载均衡的教务系统优化设计
5.基于CentOS操作系统的山西地震多业务监控系统的设计与实现
因版权原因,仅展示原文概要,查看原文内容请购买。
负载均衡技术在Web应用中的应用方法Web应用程序的流量,通常是难以预测的。
流量峰值时所需的资源远高于正常流量时所需的资源,这将导致Web应用程序出现延迟或停机。
为了解决这个问题,需要使用负载均衡技术来平衡负载并在Web应用程序的多个服务器之间分发流量。
负载均衡简介负载均衡技术的基本原则是将工作分发到多个计算机上,这些计算机作为一个整体看待,例如作为一个Web服务器集群。
负载均衡器接收客户端请求,并将请求分发到服务器集群中的一个或多个计算机上。
由于请求被均衡地分发,因此负载也被均衡地分布在服务器集群中。
Web负载均衡器通常会根据服务器的负载,以及诸如访问地址、HTTP头、用户IP地址等信息将请求分配给不同的服务器。
当某台服务器停机或负载过高时,请求将被重定向到其他服务器。
这有助于确保始终有至少一个服务器可用于响应请求。
负载均衡技术的优点负载均衡技术具有以下几个优点:1. 提高可用性:负载均衡器可以确保始终有至少一个服务器可用于响应请求。
如果负载均衡器检测到某个服务器故障,它将自动将请求转发到其他可用的服务器上。
2. 提高性能:当Web应用程序流量峰值时,对于单个服务器而言,负载变得太高,甚至可能导致停机。
负载均衡技术可以确保流量被均衡地分发到多个服务器上,从而提高整个Web应用程序的性能。
3. 扩展性:当需要扩展Web应用程序时,可以添加更多的服务器,并使用负载均衡器将流量分发到这些服务器上。
这有助于扩展Web应用程序的规模,并应对日益增长的流量。
4. 灵活性:负载均衡技术可以根据需要自动调整Web应用程序的规模。
例如,当有更多的流量到达时,负载均衡器可以自动添加更多的服务器以应对流量峰值。
同时,当流量减少时,负载均衡器可以自动删除服务器以减少成本。
Web应用程序中的负载均衡技术Web应用程序中使用的负载均衡技术通常有以下几种:1. 硬件负载均衡器:硬件负载均衡器是一种特殊的硬件设备,用于平衡流量并分发到多个Web服务器上。
服务器负载均衡方案第1篇服务器负载均衡方案一、背景随着互联网的迅速发展,业务量不断攀升,服务器承受的压力越来越大。
为保障业务连续性和用户体验,提高服务器资源利用率,降低单点故障风险,有必要引入服务器负载均衡技术。
本方案旨在制定一套合法合规的服务器负载均衡方案,确保业务稳定、高效运行。
二、目标1. 提高服务器资源利用率,降低硬件投资成本。
2. 确保业务连续性,提高系统可用性。
3. 提升用户体验,降低访问延迟。
4. 合法合规,确保数据安全。
三、方案设计1. 负载均衡器选型根据业务需求,选择合适的负载均衡器。
本方案推荐使用硬件负载均衡器,如F5、深信服等品牌。
硬件负载均衡器具有高性能、高可靠性、易于管理等优点,适用于大型企业及重要业务场景。
2. 负载均衡策略(1)轮询(Round Robin)将客户端请求按顺序分配到后端服务器,适用于服务器性能相近的场景。
(2)最小连接数(Least Connections)将客户端请求分配给当前连接数最少的服务器,适用于服务器性能不均的场景。
(3)源地址哈希(Source Hash)根据客户端IP地址进行哈希计算,将请求分配到固定的服务器,适用于有状态业务场景。
(4)权重(Weight)为每台服务器分配不同的权重,根据权重比例分配请求,适用于服务器性能差异较大的场景。
3. 健康检查负载均衡器定期对后端服务器进行健康检查,确保服务器正常运行。
检查方式包括:TCP连接、HTTP请求等。
当检测到服务器故障时,自动将其从负载均衡列表中剔除,待服务器恢复正常后,重新加入负载均衡列表。
4. 会话保持为保持用户会话状态,负载均衡器支持会话保持功能。
可根据业务需求选择以下方式:(1)源地址保持:根据客户端IP地址保持会话。
(2)Cookie保持:根据客户端Cookie信息保持会话。
5. 安全防护(1)负载均衡器支持SSL加密,确保数据传输安全。
(2)负载均衡器支持防火墙功能,对非法请求进行过滤,防止恶意攻击。
web负载均衡解决方案
《Web负载均衡解决方案》
在Web应用程序中,随着用户数量的增加,服务器面临的负
载也在不断增加。
这就需要采取一些方法来分担负载,确保服务器能够正常运行并提供稳定的性能。
其中,负载均衡就是一种常见的解决方案。
Web负载均衡是指通过将网络流量分配到不同的服务器上,
以达到最优的资源利用和性能提升。
它通常是在一组服务器上进行的,以确保每台服务器都能按照其处理能力来分配负载,从而最大程度地提高整体系统的性能和可用性。
现在市面上有许多可供选择的负载均衡解决方案,包括硬件负载均衡器和软件负载均衡器。
硬件负载均衡器通常是一种专门的设备,具有高性能和可靠性,适合大型企业级网站。
而软件负载均衡器则可以在普通的服务器上运行,并且提供更大的灵活性和定制化的选项。
在选择负载均衡解决方案时,需要考虑一些因素,比如系统的规模、预算、安全性和性能需求等。
而无论选择哪种负载均衡器,它们的基本原理都是相似的,即通过算法来按照特定的规则将请求分配到不同的服务器上,以达到最佳的负载分担和性能优化。
总的来说,Web负载均衡是提高系统性能和可用性的重要手段,可以帮助提升用户体验和确保网站或应用程序的稳定运行。
通过合理选择和配置负载均衡解决方案,可以最大程度地提高服务器资源的利用率,有效分担负载,并确保系统的性能和可用性。
nginx负载均衡规则Nginx负载均衡规则负载均衡是现代互联网的核心组成部分之一,它使用户可以无缝地访问高可用性的应用程序和服务。
Nginx是一种广泛使用的负载均衡器,它使用一些规则分配客户端请求以实现高可用性和可伸缩性。
在本文中,我们将探讨Nginx负载均衡的规则,并向您展示它们如何实现高效负载均衡。
1. 轮询(Round Robin)轮询是最为基本的负载均衡规则之一。
它将所有客户端请求均匀地分配到Nginx后端服务器组中的每个成员上。
具有相同权重的服务器将平均分配请求,以确保所有服务器使用的资源相同。
虽然轮询提供了一种简单和公平的负载均衡方法,但在服务器不均衡的情况下,轮询可能会导致负载不平衡。
2. IP哈希(Ip Hash)IP哈希规则基于客户端IP地址来选择后端服务器。
当一个客户端第一次访问服务器组中的任何一个成员时,Nginx会记录客户端的IP地址。
对于这个客户端的后续请求,Nginx会将它们映射到具有相同哈希值的后端服务器上。
这个规则确保同一客户端的所有请求都被发送到同一个服务器,使得所有请求的处理都在一个同样的上下文中处理。
然而,当客户端数量不断增加时,这种规则可能会导致超载,因为大量客户端使用相同的服务器。
3. 最少连接数(Least Connections)使用“最少连接数”规则时,Nginx会选择当前连接最少的服务器来处理客户端请求。
在这种场景中,Nginx将资源分配给最少连接的服务器,以确保负载均衡器和每个服务器之间的负载均衡。
然而,在此规则下,某些服务器仍然可能会承受更多的负载,因为负载均衡器仅在当前连接数最少的服务器之间分配请求。
4. 加权轮询(Weighted Round Robin)加权轮询是一种基于权重的规则。
通过给不同服务器分配不同的权重值,Nginx可以指定请求在每个服务器之间发送的频率。
具有更高权重值的服务器将被分配更多的请求数,这将使具有更多资源的服务器承担更多的负载,从而提高整体性能。
Network World •
网络天地
Electronic Technology & Software Engineering 电子技术与软件工程• 23
【关键词】Nginx Web 服务器 负载均衡 性能优化
1 Nginx国内外研究现状
1.1 Nginx研究现状
Nginx 虽然开发的时间不长,但是由于其低内存消耗、高稳定性和代码开源,很快受到许多公司和开发人员的喜爱,大量的研究人员对Nginx 进行研究。
ngxpagespeed 模块是谷歌基于Nginx 开发的,大大提高了网页的加载速度,并且降低了用户访问延迟。
Nginx 在中国也有大量用户和研究人员,并开发了不同的项目。
比如,Tengine 是由阿里巴巴基于Nginx 开发的,它在Nginx 的基础上,针对大访问量网站的需求,添加了很多高级功能和特性。
1.2 负载均衡研究现状
负载均衡多年来一直是研究的热点,并且不断有新的算法被提出。
负载均衡不仅在同构集群系统和异构集群系统中得到广泛应用,而且在分布式系统和云系统中也得到了广泛应用。
通常,人们用节点的负载与性能比来衡量负载权重,值越大,权重越大。
2 Nginx负载均衡的研究
Nginx 有多种负载均衡算法,负载均衡的主要目的是将大量并发请求合理地分布到集群中的服务器上,根据算法是否内置,分为内置算法和扩展算法两种类型,加权轮询算法就属于内置算法,而一致性哈希算法则属于扩展算法。
2.1 加权轮询算法
如果没有配置任何负载均衡算法时,负载均衡算法会默认是加权轮询算法。
基于Nginx 的Web 服务器负载均衡策略改进与实现
文/郝淑惠
下文是Nginx 中加权轮询算法的部分配
置:
http{
upstream cluster{
server 192.168.1.2 weight=5;server 192.168.1.3 weight=3; server 192.168.1.4 weight=1;}...
location/{
proxy_set_header X-Real-IP $remote_addr; //返回真实IP
proxy_pass http://cluster; //代理指向cluster
}
加权轮询算法存在的缺点是:加权轮询算法会根据配置经验进行权重配置,服务器的真实性能难以得到体现,并且由于客户端对每个请求的处理时间不同,会产生不均衡问题。
当某个服务器的权重相对较大,并且正在用时较长的用户请求时,假如又有新的请求需要处理,由于该服务器的权重相对较大,新的请求会被分配给该服务器。
该服务器会因为处理的请求过多而超载,其他服务器却没有处理请求。
2.2 一致性哈希算法
一致性哈希算法就是将服务器地址按照一定规则(比如路由分配情况,服务器承载服务种类等)分配到一张哈希表中。
当有新的数据请求时,会根据哈希表中的顺序,选择最近的一个服务器来处理该请求。
优点是,所选服务器是缓存服务器时,可以快速找到存储该类型数据的服务器。
缺点是,一般的哈希算法是根据路由状况生成哈希表的,当该服务器不是缓存服务器时,如果遇到一个IP 段出现大量请求,则会将这些请求都分配到同一台服务器。
3 Nginx性能调优
Nginx 支持正则表达式,是一款配置灵活
的高性能Web 服务器。
在对Nginx 性能进行调优时,可以一次只改一个配置项,如果更改后性能没有变化,就改回原来的值。
3.1 全局块
# user nobody nobody;worker_processes 2;# error_log logs/error.log
# error_log logs/error.log notice # error_log logs/error.log info # pid logs/nginx.pid
worker_rlimit_nofile 1024;
在全局块中,需要配置一些项。
以下是一些需要特别关注的几个:
(1)设置创建的工作进程数。
Nginx 可以运行多个工作进程,每个都能处理大量连接。
Nginx 通过主进程创建工作进程。
具体的数值设置由Nginx 配置文件中的worker_connectons
决定。
设置的值太低,可能导致无法有效地处理高并发请求。
如果设置的值太高,将导致工作进程之间的连续切换,增加系统损耗。
(2)每个工作进程设置固定的CPU 内核。
这样做可以避免同一个工作进程选择不同的CPU 内核。
(3)设置nginx 进程可以打开的最大文件数。
如果设置的数值太低,当同时的连接数过多时,将会出现“打开的文件太多”问题。
3.2 Events 块event{
worker_connections 1024;multi_accept on;useepoll;}
events 块为Nginx 中的连接处理进行相应的设置。
(1)设置工作进程的最大连接数。
这一数值的设置应该与全局块中提到的值相同。
(2)设置事件驱动模型。
不同操作系统的事件驱动模型不同,因此该参数的设定一般根据操作系统来决定。
如果是linux2.6+,使用epoll ;如果是BSD ,如Mac ,使用Kqueue 。
3.3 http块
作为Web 服务器,http 块是Nginx 最核心的一个模块,配置项也比较多,需要根据硬件信息进行适当的配置,常规情况下,使用默认配置即可。
3.4 其他方面
有关Nginx 性能调优,还有很多内容,比如,启用缓存可以显著地降低响应时间,同时能显著减轻后端服务器的负载;压缩响应可以大大减小响应的大小,减少带宽占用。
4 总结
随着国内外研究人员对Nginx 的深入研究,Nginx 的稳定性、安全性和高效性在未来将会大大提高,并且会给用户带来更好的体验。
参考文献
[1]王永辉.基于Nginx 高性能Web 服务器性
能优化与负载均衡的改进与实现[D].电子科技大学,2015.
[2]覃川.基于Nginx 的Web 服务器负载
均衡策略改进与实现[D].西南交通大学,2017.
作者简介
郝淑惠(1971-),女,内蒙古自治区人。
大学本科学历。
实验师。
作者单位
河套学院网络信息中心 内蒙古自治区巴彦淖尔市 015000
●本论文系内蒙古自治区高等学校科学研究项目研究成果,项目名称《负载均衡方法研究及在Sugon cvm 虚拟化平台上的实现》,项目编号NJZY17385。