9.ICN缓存技术研究-林涛
- 格式:pdf
- 大小:682.06 KB
- 文档页数:21
《ICN中基于内容流行度的缓存替换策略研究》篇一ICN中基于内容流行度缓存替换策略研究一、引言随着互联网的快速发展,内容中心网络(ICN)逐渐成为网络领域的研究热点。
ICN以其内容为中心的特性,为网络提供了更加高效的数据传输和内容分发机制。
然而,在ICN中,缓存替换策略的选取对于提升网络性能和用户体验至关重要。
本文将针对ICN中基于内容流行度的缓存替换策略进行研究,探讨其优势与挑战。
二、ICN概述ICN是一种新型的网络架构,以内容为中心,通过将内容名称作为网络地址,实现了内容的快速定位和分发。
在ICN中,缓存技术被广泛应用于网络节点,以减轻核心网络的负担,提高内容传输效率。
三、基于内容流行度的缓存替换策略3.1 流行度定义内容流行度指的是网络中各内容被访问的频率和重要性。
通过分析历史访问记录,可以估算出各内容的流行度。
基于内容的流行度,可以为缓存替换策略提供决策依据。
3.2 缓存替换策略在ICN中,缓存替换策略决定了当缓存空间不足时,哪些内容将被替换出缓存。
基于内容流行度的缓存替换策略,旨在将流行度高的内容保留在缓存中,以提高内容的访问速度和用户体验。
四、研究方法为了评估基于内容流行度的缓存替换策略性能,本文采用了仿真实验的方法。
通过构建ICN网络环境,模拟实际网络中的内容访问情况,收集和分析数据。
然后,将基于内容流行度的缓存替换策略与其他常见策略进行对比,评估其性能。
五、实验结果与分析5.1 实验环境与数据集实验采用真实的网络数据集,包括不同类型的内容和访问记录。
通过搭建ICN仿真环境,模拟了不同场景下的网络访问情况。
5.2 性能指标本文采用以下性能指标来评估缓存替换策略的性能:命中率、平均访问延迟、缓存命中时延等。
5.3 实验结果分析实验结果表明,基于内容流行度的缓存替换策略在提高命中率和降低平均访问延迟方面具有显著优势。
当网络中的内容流行度差异较大时,该策略能够更好地保留流行度高的内容在缓存中,从而提高内容的访问速度。
基于Cacheline多核分析技术的能耗精准预测研究作者:杨骏姚浩陶伟陈军健于杨陈波来源:《粘接》2024年第07期摘要:针对能耗数据预测结果不精准问题,提出了基于改进鲸鱼算法的电力专用芯片能耗预测研究。
分析电力专用芯片Cache line读写耗能实时性,确定芯片任务执行动态频率实时性约束条件。
在Cache多核处理器高速缓存硬件架构支持下,构建静态能耗目标函数和动态能耗目标函数。
采用改进鲸鱼优化方法,加入非线性自适应加权因子,通过调节鲸鱼与猎物之间距离获取预测结果。
为避免改进鲸鱼算法陷入局部最优,采用了微分干扰因子来实现全局最优。
实验结果表明,该方法与实际数据存在最大为10 V的电压和1 A的电流,且能耗预测曲线完全收敛,说明使用该方法能够获取精准预测结果。
关键词:改进鲸鱼算法;电力专用芯片;能耗预测;微分扰动因子;收敛中图分类号:TP311;TM769 文献标识码:A 文章编号:1001-5922(2024)07-0189-04Research on accurate energy consumption predictionbased on Cacheline multi core analysis technologyYANG Jun, YAO Hao, TAO Wei, CHEN Junjian, YU Yang, CHEN Bo(Digital Grid Research Institute of China Southern Power Grid,Guangzhou 610663,China)Abstract: In order to solve the problem of inaccurate prediction results of energy consumption data, a research on energy consumption prediction of power chips based on improved whale algorithm was proposed. The real⁃time energy consumption of Cache line read and write in the power⁃specific chip was analyzed, and the real-time constraints of the dynamic frequency of chip task execution were determined. With the support of the cache hardware architecture of the Cachemulti⁃core processor, the static energy consumption objective function and the dynamic energy consumption objective function were constructed. Using the improved whale optimization method,adding nonlinear adaptive weighting factors, the prediction results were obtained by adjusting the distance between whales and prey. In order to avoid the improved whale algorithm from falling into the local optimum, the differential interference factor was used to achieve the global optimum. The experimental results showed that the method and the actual data had a maximum voltage of 10V and a current of 1A, and the energy consumption prediction curve was completely converged, indicating that the method can obtain accurate prediction results.Key words: improved whale algorithm;power?specific chip;energy consumption prediction;differential disturbance factor;convergence在电力系统中,如何有效地预测电力专用芯片能耗,提高系统稳定性能,成为了一项十分必要的工作。
基于排队网络的流水线模拟器任务缓存新分析模型邱铁;郭禾;冯林;司伟生;刘晓艳【摘要】Pipeline simulator of software is a key technology in software simulation of embedded microprocessors. A new analysis model for the pipeline simulator of the embedded SPARC-V8 microprocessor is proposed, and the associated analysis method for software simulation is also given. Specifically, the queueing network model with M/M/1/N queues is applied to analyze the task arrival and service blocking in the task buffer size of the pipeline simulator. To analyze the blocking phenomenon of pipeline stage, the "holding nodes" are added to the original model and hence obtain an equivalent model that is easy for blocking analysis. The evaluation indices of system performance are calculated by using an iterative algorithm with approximate calculation. The relationship curves between system throughput and task buffer size are established according to the system evaluation indices. The task buffer size values for each functional module for pipeline simulator are obtained by the change trend of curve. The actual buffer size of the pipeline simulator can be set by the calculated values from our model. The experiments show that the data obtained from the model are consistent with the actual operating data. Thus, the new model and the proposed analysis method have important guiding significance for optimizing the performance of the pipeline simulator.%流水线软件模拟器是嵌入式微处理器软件仿真系统的关键技术,提出对嵌入式微处理器流水线仿真系统的排队网络建模与缓存大小分析方法.对SPARC-V8流水线模拟器建立M/M/1/N型排队网络模型,分析指令到达及服务阻塞机制.为了解决模型计算中的阻塞问题,在排队网络模型中增加“保持节点”,得到扩展的等价排队网络模型.采用近似计算迭代算法,得到系统性能评价指标,并建立排队网络节点性能关系曲线,确定各功能模块的任务缓存大小.根据得出的任务缓存计算值设置流水线软件模拟器实际缓存大小,实验表明模型计算数据与实际运行数据基本一致.该评价方法对嵌入式微处理器流水线仿真系统的建模与性能分析具有重要的指导意义.【期刊名称】《计算机研究与发展》【年(卷),期】2012(049)001【总页数】8页(P103-110)【关键词】嵌入式微处理器;排队网络模型;阻塞;流水线仿真;任务缓存【作者】邱铁;郭禾;冯林;司伟生;刘晓艳【作者单位】大连理工大学软件学院辽宁大连 116620;大连理工大学创新实验学院辽宁大连 116024;大连理工大学软件学院辽宁大连 116620;大连理工大学创新实验学院辽宁大连 116024;悉尼大学信息学院悉尼 2006;大连理工大学软件学院辽宁大连 116620【正文语种】中文【中图分类】TP391.9嵌入式软件开发依赖于具体的硬件结构,使得开发周期长、前期调试困难.为了解决这一问题,研究人员提出了嵌入式微处理器软件仿真模拟.流水线仿真是嵌入式微处理器仿真的关键技术之一,其各个阶段指令流水段的处理能力是指令模拟器性能的主要影响因素.如果某个流水段存在阻塞,而任务缓存设置过小,则整个流水线的效率不高.因此优化仿真系统流水线软件结构,并在嵌入式微处理器仿真软件和主机硬件开销之间找到一个最佳结合点,成为当前嵌入式微处理器流水线仿真性能研究的热点.排队网络是有效的系统级建模与分析方法,广泛应用于计算机系统、通信系统和制造系统等的建模设计与性能分析,具有抽象程度高、分析理论丰富等优点[1-2].近年来,在应用有限容量排队网络[3-4]分析与改进计算机性能方面已经进行了一些探索.Bolot在文献[5]中提出对于给定网络路径,在相对短的时间内测到最短时延的方法.在文献[6]中Gurewitz等人在最小平方差的基础上提出改进目标函数,对确定性时延的估算方法进行了一定的研究.在文献[7]中Papagiannaki等人提出了基于最大熵方法测量排队系统的最短时延的方法.Kouvatsos,Awan等人在文献[8-9]中介绍了带有优先级和阻塞机制的开环排队网络性能分析方法,对近似计算排队网络参数与误差估计进行了讨论.谢广军等人在文献[10]中采用多类顾客闭合排队网络(multi-customer closed queueing network,MCQN)对系统建立性能评价模型.通过对模型的分析可以发现系统的瓶颈资源,预测系统某个部件性能的变化对整个系统的影响程度.利用排队网络成功地解决各个领域的模型分析问题,但在嵌入式微处理器系统软件仿真与性能评价方面却很少提及.本文提出了一种基于SPARC-V8微处理器仿真系统的流水线模拟器排队网络建模方案及任务缓存分析方法.对流水线模拟器建立有限容量的排队网络模型,任务缓存的大小对应模型中队列的等待队长.当对长达到最大时排队网络出现阻塞.通过在排队网络模型可能出现阻塞的路径上增加假想的无线容量的节点,即“保持节点”,得到排队网络的等价模型.对等价模型进行分析,可以得到阻塞概率、指令到达率等模型参数,从而计算出仿真系统性能指标.分析吞吐率和节点缓存容量的关系曲线,得到流水线模拟器各模块任务缓存的最优设置.最后,通过对比实验数据验证了建模及分析方法的正确性.1 流水线模拟器排队网络模型1.1 流水线模拟器模型SPARC-V8微处理器是一种基于精简指令集计算机体系结构的嵌入式微处理器,广泛应用于航空航天、军工通信和工业控制等领域,在32位处理器中占据重要地位.SPARC-V8微处理器采用单周期指令5级流水线,分别为取指、译码、执行、访存、回写.在仿真系统中,用5个功能模块模拟流水线的5个过程.对流水线模拟器建立排队网络模型,排队网络的拓扑结构对应仿真系统中流水段的连接关系[2],用5个节点分别对应5个功能模块,各类指令的到达率近似服从泊松分布,时间间隔服从指数分布,流水线模型可以看作是由M/M/1/N队列组成的排队网络.在5级流水线中,执行模块要完成数据的算数运算和逻辑运算以及访存的地址计算等任务,处理周期比其他4个模块高出很多.通过对排队网络模型的路径时延和系统时延计算,发现执行段成为流水线中的瓶颈段,造成各段时延分布不均,给系统带来不均衡性.因此将执行模块划分为两部分,分别处理普通数据运算和乘法运算.带有独立乘法运算模块的流水线排队网络模型如图1所示,节点1~6分别代表仿真系统的取指模块(IF)、译码模块(ID)、普通数据运算模块(EXI)、乘法运算模块(MUL)、访存模块(ME)和寄存器回写模块(WB).Fig.1 The queuing network model of the pipeline.图1 流水线排队网络模型1.2 节点转移概率嵌入式SPARC-V8微处理器的指令可以分为分支指令、数据处理指令、测试指令、访存指令、批量访存指令、乘法指令.各类指令的功能不同,在流水线中的流动情况也是不同的,例如数据处理指令要回写计算结果,测试指令不需要回写结果.为了使嵌入式微处理器的流水线部件达到最高的性能和效率,本文对实际工程项目中的SPARC-V8指令进行分类统计,得出指令在流水线排队网络中的分布及在各个节点间的流动情况如表1所示:Table 1 Instruction Distribution in the Queueing Network of the Non-Blocking Pipeline表1 指令在无阻塞流水线排队网络中的分布 1 1 100.00 1,2 1 100.00 2,3 0.60 60.00 2,4 0.21 21.00 2,5 0.05 5.00 2,6 0.14 14.00 3,5 0.11 6.60 3,6 0.80 48.00 3,out 0.09 5.40 4,5 0.61 12.81 4,6 0.28 5.88 4,out 0.11 2.31 5,6 0.61 14.89 5,out 0.39 9.52 6,in,out 1 82.772 模型分析2.1 等价排队网络模型在流水线排队网络模型中,缓存的大小对应等待队列的长度.当队长到达最大时到达服务台的顾客流停止,排队网络出现阻塞.当顾客从一个队列移动到另一个容量已满的队列时,阻塞服务台存在于刚好完成服务的队列中,这时阻塞的服务台不能服务任何其他的顾客,直到目标服务台服务完成后才能接受服务.这种情形称之为转移阻塞(transfer blocking)[11].阻塞使节点的内部到达过程和服务过程变得复杂,并且阻塞的规则是转移阻塞,队列不会保存.文献[12-13]讨论了在排队网络中加入“保持节点”的思想,即在排队网络中可能会出现阻塞的路径上增加假想的无限容量的节点,基本思想是解除一个服务器的阻塞,即删除阻塞的服务台并将其保存在“保持节点”中.对图1所示的流水线排队网络模型进行扩展,加入“保持节点”.增加的“保持节点”是M/M/1/∞型的队列,内部到达的时间间隔为指数分布,服务过程具有阻塞时延.等价排队网络模型如图2所示:Fig.2 The queueing network model with“holding nodes”.图2 带“保持节点”的排队网络模型2.2 流量平衡方程如图3所示为开放式排队网络中的典型队列,i表示排队网络中的一个节点,节点i的队长为m,服务速率为μi;平均分组到达率为λi;当一个分组到达节点i时存在以下两种情形:1)独立的外部泊松到达λe;2)从队列k以概率pki到达节点i;当一个分组离开节点i时存在以下3种情形:1)以概率pij到达节点j;2)以概率pii在网络中循环;3)以概率pie离开系统.对于开放式排队网络存在定理1成立,其具体证明见参考文献[14].Fig.3 Typical queue in the queueing network.图3 排队网络中的典型队列定理1.对于任意的开放式排队网络,离开节点i的所有可能速率等于进入该状态的速率.其中,Ii,Ik是单位矢量,表示节点从状态i和状态k出发的每一个单位的变化.由定理1我们可以给出推论1:推论1.对于流水线排队网络模型,进入节点i的所有可能的指令数等于离开该状态的指令数.证明.采用反证法.假设进入节点i的指令数不等于离开节点i的指令数,则根据定理1流平衡方程中必然存在指令自循环概率pii≠0,这与微处理器指令流水线各节点服务都是顺序单向的相矛盾,因此命题成立. 证毕.2.3 带阻塞的排队模型分析当排队网络中加入“保持节点”后,排队网络模型中的流平衡方程会发生改变.带阻塞概率的排队网络模型如图4所示:Fig.4 Queueing network model with blocking probability.图4 带阻塞概率的排队网络模型Q表示所有保持节点的集合表示服务台在节点i结束服务想去节点j的阻塞概率表示到达节点j的总阻塞概率表示外部到达节点j的阻塞概率.对于节点j来说,总到达率为外部到达率与内部节点i1,i2,…,i Q 到达率阻塞后之和.节点j外部实际到达率为节点j内部实际到达率为为内部节点i1,i2,…,i Q输出后实际到达率之和,即根据推论1可以得出带有阻塞的排队网络流量平衡方程:为了获得进入j的到达速率的均值和方差,需要计算阻塞概率3个阻塞概率的计算公式为式(6)~(8),具体推导过程见参考文献[12,15].其中是从节点i到节点j的内部到达时间间隔的方差;πj(ni)表示系统到达稳态时队列j中有ni个任务的概率.的计算公式如下:的计算公式如下:在排队网络模型中,并不是每个节点都有外部到达,本文中的流水线排队网络中除节点1以外,其他的5个节点均无外部到达,因此对这几个节点计算时无需考虑外部到达的阻塞概率3 算法设计与实现通过在排队网络模型中增加无限容量的“保持节点”解除带有阻塞的服务台,在“保持节点”中被阻塞服务台的处理时间对应被阻塞的时间,使得我们可以描述等价排队网络模型中节点的到达和服务过程[12].对得到的排队网络模型应用迭代算法,求解稳态概率,进而求出阻塞概率和系统性能指标.算法描述如下:算法1.近似计算迭代算法.Begin步骤1.在流水线排队网络中增加“保持节点”,得到扩展的等价排队网络模型. 步骤2.初始化各节点的阻塞概率,,并计算节点内部到达时间间隔的均值和方差. 步骤3.计算节点的利用率ρi和稳态概率πi(ni):当系统到达稳态时,我们规定队列i处于状态ni的概率为πi(ni),根据Jackson定理,稳态时节点i的状态与其他所有节点的状态无关,可以得出:其中(9)具体的推导过程可参考文献[14,16-17],可以求出任一节点任务到达的稳态概率.步骤4.根据公式计算阻塞概率步骤5.利用阻塞概率修正节点内部到达时间间隔的均值和方差.步骤6.如果前后两次计算节点内部到达间隔时间的均值之差小于某一值(本文选择计算误差限为10-6)并转到步骤7,否则跳转到步骤3后进行迭代计算.步骤7.返回无阻塞状态下的到达率,即节点吞吐率.End算法的主要计算集中于步骤3~6的循环,算法的时间复杂度为O(n.m.N),其中m是排队网络节点的数目,n是算法迭代的次数,N为节点缓存容量.4 模拟器任务缓存大小分析任务缓存容量的设置是影响流水线模拟器效率的重要因素.任务缓存过小会造成流水线的严重阻塞,处理效率低;模拟器任务缓存过大,运行时占用过多的硬件资源,造成主机压力过大,使操作系统的调度效率偏低,因此需要在有限的资源内使任务缓存大小设置达到最优.4.1 计算结果流水线排队网络模型的输入参数如表2所示.其中,表示节点i的外部到达率表示外部到达方差,μi表示服务台处理速率,CSi表示服务台处理方差,Ni表示任务缓存大小,取值范围为1~100.Table 2 Input Parameters for Model表2 模型输入参数100 2 0 0 200 50 1~100 3 0 0 200 200 1~100 4 0 0 200 100 1~100 5 0 0 200 80 1~100 6 0 0 200 60 1~100 1 100 50 200 50 1~根据第4节所设计的近似计算迭代算法,得出任务缓冲容量(Ni)和节点吞吐率).各节点缓冲容量和节点吞吐率关系曲线如图5所示.在图5中,横坐标表示节点缓存的大小,纵坐标表示节点吞吐率.可以看出,各个节点随着缓存容量的增加,吞吐率经历了一个先陡增后平缓的过程,这是由于增加容量缓解了由于阻塞带来的性能损失,但是当容量增加到一定大小后,对于一定的到达速率,流水线中不存在阻塞,性能的主导因素是流水线的处理速度,曲线开始变得平缓.因此,选取节点缓存大小时,尽量保证当节点缓存的增加对吞吐率影响不大时作为选取点(最好是在曲线由陡增向平缓的转折点处).根据吞吐率随缓存大小的变化曲线,流水线软件模拟器的取指模块、译码模块、普通数据运算模块、乘法运算模块、访存模块、回写模块的缓存大小分别设置为72,80,95,85,90,75(图5中已用粗实线进行标注).Fig.5 The relationship curves between throughput and buffer size.图5 各节点吞吐率与缓存大小之间关系曲线4.2 模拟器实际运行数据对比根据所建立的流水线模拟器模型和任务缓存大小的计算结果,在 Windows系统下,Intel双核2.66GHz主频的CPU,2GB内存的PC机上,采用VC++编程实现SPARC-V8流水线模拟器仿真,实验结果如表3所示:Table 3 The Data of Actual Operation Simulator Compared with the Calculated Data表3 模拟器实际运行数据与计算值对比?由于相对误差最大值为8.36%,小于10%,可以认为计算值与实验运行结果基本相符.5 结束语本文利用排队网络对SPARC-V8微处理器的指令流水线软件模拟器进行建模,指令的5级流水线中的每一级对应作为一个节点,建立M/M/1/N型排队网络模型,为了解决每个节点服务时间的不均衡性,将执行单元分成普通数据运算模块(EXI)和乘法运算模块(MUL)两个节点进行处理.在流水线排队网络中添加“保持节点”扩展成等价的排队网络,并采用近似分析迭代算法,计算出各个节点的性能参数,得出节点吞吐率)随任务缓存大小(Ni)的变化曲线.为了合理分配资源,在有限的资源内最大的保证流水线运行效率,根据吞吐率随缓存大小的变化曲线,对模拟器的取指模块、译码模块、普通数据运算模块、乘法运算模块、访存模块、回写模块的缓存大小进行设置.并将计算结果与流水线软件模拟器实际运行数据进行对比,验证了模型计算结果与模拟器实验统计值的一致性.本文提出的采用排队网络模型分析流水线模拟器性能的方法为设计高效的指令流水线模拟器提供了理论建模基础,对微处理器仿真系统的设计和性能评价具有重要的指导意义.本文仅对单核的嵌入式微处理器的指令流水线软件模拟器进行建模,提出了其任务缓存大小的分析方法,但对于最新出现的多核嵌入式微处理器可以采用M/M/m/N,即多服务台队列,这将是后续工作要解决的问题.参考文献[1]Min B,Goh K I,Kim I M.Waiting time dynamics of priority-queue networks[J].Physical Review E-Statistical,Nonlinear,and Soft Matter Physics,2009,79(5):1-5[2]Wang Lei,Wang Zhiying,Dai Kui.An approximate method by queuing network modeling for performance evaluation of asynchronous pipeline rings[C]//Proc of 2006IEEE Int Conf on Computer and Information Technology.Los Alamitos,CA:IEEE Computer Society,2006:244-249[3]Kock A,Etman L,Rooda J.Effective process times for multi-server flowlines with finite buffers [J]. IIE Transaction,2008,40(3):177-186[4]Vuuren M,Adan I,Simone A.Resing-Sassen.Performance analysisof multi-server tandem queues with finite buffers and blocking[J].OR Spectrum,2005,27(3):315-338[5]Bolot J C.Characterizing end-to-end packet delay and loss in the internet[C]//Proc of the ACM SIGCOMM'93.New York:ACM,1993:289-298[6]Gurewitz O,Cidon I,Sidi M.One-way delay estimation using network-wide measurements [J].IEEE Trans on Information Theory,2006,52(6):2710-2724[7]Papagiannaki K,Moon S,Fraleigh C,et al.Analysis of measured single-hop delay from an operational backbone network[C]//Proc of IEEE INFOCOM'02.Piscataway,NJ:IEEE,2002:535-544[8]Kouvatsos D,Awan I.Entropy maximisation and open queueingnetworks with priorities and blocking [J].Performance Evaluation,2003,51(2):191-227[9]Awan I.Analysis of multiple-threshold queues for congestion control of heterogeneous traffic streams [J].Simulation Modelling Practice and Theory,2006,14(6):712-724[10]Xie Guangjun,Liu Jun,Wang Gang,et al.Performance evaluation model for Exp-RAID system based on MCQN[J].Journal of Computer Research and Development,2008,45(Suppl1):207-211(in Chinese)(谢广军,刘军,王刚,等.基于多类顾客排队网络的Exp-RAID系统性能评价模型[J].计算机研究与发展,2008,45(增刊1):207-211)[11]Almeida D,Kellert P.Analytical queueing network model for flexible manufacturing systems with a discrete handling device and transfer blockings[J].International Journal of Flexible Manufacturing Systems,2000,12(1):25-57[12]Tahilramani H,Manjunath D,Bose S K.Approximate analysis of open network of GE/GE/m/N queues with transfer blocking [C]//Proc of the 7th Int Symp on Modeling Analysis and Simulation of Computer and Telecommunication Systems.Los Alamitos,CA:IEEE Computer Society,1999:164-172[13]Brandwajn A, Begin T. Higher-order distributional properties in closed queueing networks [J].Performance Evaluation,2009,66(11):607-620[14]Sheng Youzhao.Queueing Theory and Its Application in Modern Communications[M].Beijing:Posts & Telecom Press,2007(in Chinese)(盛友招.排队论及其在现代通信中的应用[M].北京:人民邮电出版社,2007)[15]Kouvatsos D, Xenios N. Mem for arbitrary queueing networks with multiple general servers and repetitive service blocking[J].Performance Evaluation,1988,39(2):183-200[16]Winston W L. Introduction to Probability Models:Operations Research,Volume II[M].Stamford:Thomson Learning,2004[17]Lefebvre M.Queueing Theory,Applied Stochastic Processes [M].Berlin:Springer,2007:315-356。
专利名称:一种基于访问频率的缓存优化方法及系统专利类型:发明专利
发明人:丁麒森,田琳
申请号:CN202010789579.X
申请日:20200807
公开号:CN112015679A
公开日:
20201201
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于访问频率的缓存优化方法及系统,涉及服务器运维管理技术领域。
方法包括:采用频率近似统计方法削减维护缓存频次所需的空间;然后基于时间变化更新缓存的访问频次。
本方法通过采用频率近似统计方法削减维护缓存频次所需的空间,解决了维护高频次的访问元数据存在的消耗大量计算和存储资源的问题,然后使用一种随访问频次更新的统计方式,基于时间变化更新缓存的访问频次,减少了频率保存的空间占用,解决了现有LRU缓存设计中存在的高负载下的空间消耗及部分数据不准确的问题。
本发明基于访问频率淘汰策略,采用低占用、高命中率的缓存机制,降低了资源消耗,提高了缓存命中率。
申请人:苏州浪潮智能科技有限公司
地址:215100 江苏省苏州市吴中区吴中经济开发区郭巷街道官浦路1号9幢
国籍:CN
代理机构:济南诚智商标专利事务所有限公司
代理人:王敏
更多信息请下载全文后查看。