北京邮电大学张兴获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京邮电大学申请的专利一种面向端侧算力网络的服务部署系统及其服务部署方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116684472B 。
龙图腾网通过国家知识产权局官网在2025-12-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310510626.6,技术领域涉及:H04L67/51;该发明授权一种面向端侧算力网络的服务部署系统及其服务部署方法是由张兴;曲哲言;李泱;王文博设计研发完成,并于2023-05-08向国家知识产权局提交的专利申请。
本一种面向端侧算力网络的服务部署系统及其服务部署方法在说明书摘要公布了:本发明涉及一种面向端侧算力网络的服务部署系统及其服务部署方法,所述服务部署系统,包含:资源监控与分析模块、微服务性能监控与分析模块、流量分析与预测模块、服务部署模块,所述所述面向端侧算力网络的服务部署方法,包括:步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策等,本发明所述服务部署系统及其服务部署方法,具有面向端侧算力网络场景,提供了所述面向端侧算力网络的服务部署系统,通过部署在各个端侧算力设备上的监控模块,主控节点能够迅速掌握管理范围内的算网信息,并对微服务架构下实例之间的调用进行准确建模。
本发明授权一种面向端侧算力网络的服务部署系统及其服务部署方法在权利要求书中公布了:1.一种面向端侧算力网络的服务部署方法,其特征在于,包括如下步骤: 步骤1,在面向端侧算力网络的服务部署系统中,端侧算力设备被分为多个组,每个组包括一个主控节点,负责管理组内的信息收集计算与服务部署决策,其中,在服务部署决策中,通过主控节点部署资源分析与建模子模块、微服务响应模型汇总子模块、流量分析与预测模块与服务部署模块、及其它端侧算力设备部署资源监控子模块、微服务监控与分析子模块与Kubelet节点代理定期对部署决策进行更新,端侧算力设备部署的资源监控子模块和微服务监控与分析子模块采集端侧算力设备的资源信息和微服务实例响应信息并更新拟合参数,最终将资源信息和结果参数上报至主控节点;端侧算力设备的资源监控子模块按照预先设定的采样频率,采集端侧算力设备的资源信息,并将信息打包压缩后上传至主控节点;端侧算力设备的微服务监控与分析子模块统计端侧算力设备每一时刻的CPU资源利用率、内存资源利用率以及微服务实例对于每次请求的响应特性,并根据采集信息训练拟合模型,最后将模型参数上传至主控节点; 步骤2,主控节点开放对应信息接收端口,根据汇总信息对端侧算力设备资源信息、微服务响应信息进行实时分析,建立算网模型和微服务响应特性模型: 2.1、主控节点开放信息收集接口,收集管理范围内各端侧算力设备的可用资源量以及端侧算力设备间的连接拓扑和网络速率,以端侧算力设备为节点,端侧算力设备间网络连接为边建立算网模型; 2.2、主控节点根据收集的各端侧算力设备的模型参数生成对于算网模型中每一个端侧算力设备的响应特性描述,建立微服务响应特性模型,微服务响应模型表示为下式1: 上式1中:Fi为第i个端侧算力设备上的微服务当前任务请求所需计算量,fi为分配的CPU资源的计算频率,Rci为计算资源利用率,Rsi为内存资源利用率,gi为以上述参数为自变量的函数,计算当前任务请求的响应时延,将资源利用率升高对响应时延的影响表示为线性函数; 步骤3,主控节点建立不同业务的微服务调用结构图,并根据用户请求的历史数据训练预测模型,预测未来一定时间窗内各端侧算力设备的多种服务请求的流量信息,并据此计算出各微服务实例需求,最后根据不同微服务实例间转发历史数据量和微服务自身特性信息建立微服务调用模型: 3.1,每一种业务被分解为多个微服务,微服务间的调用关系建模为一个有向图,其中,节点表示微服务类型,边表示微服务之间调用结构和传输数据量,为了进行统一建模与计算,将端侧算力设备设置为虚节点,此时有向图中每个节点表示一个微服务实例或端侧算力设备,并令lvi∈{cli1,cli2,...,cliN,ms1,ms2,...,msM}表示该节点属于的端侧算力设备或微服务种类,其中,vi表示微服务调用结构图中第i个节点,clii表示该节点数据第i个端侧算力设备,msi表示该节点数据第i类微服务; 3.2,根据流量预测结果信息和历史数据,基于排队论确定未来一定时间窗内各个类型微服务所需实例数量,进而扩充微服务调用结构图中各节点数量,用户业务请求输入被视为一个泊松过程,服务时间的分布根据历史数据计算其标准差和平均服务时间,此时对于每个类型的微服务视为MGm排队系统,以限制平均排队时延的最大值,以此计算出对应的m,即各个类型微服务实例数量,并将微服务调用结构图中对应节点扩充为m个,即根据流量预测结果信息得到第i个端侧算力的第j类业务的用户访问率λi,j,第k种微服务所需实例数量为根据散近似改善模型进行计算,如下式2: 上式2中:WMGm表示平均排队时延,ρ表示服务强度,π0,θm,rm均为与以及平均服务时间、服务时间标准差有关的中间变量,通过约束WMGm,计算出最小所需实例数量 3.3,根据计算得到的微服务实例需求,预估各个实例间转发概率,预估过程中保证同一个上游实例对于所有下游实例的转发概率和为1,以确定单位时间内微服务调用结构图中各节点间传输数据量,最终得到完整的微服务调用模型; 步骤4,主控节点运行服务部署算法,计算最优的部署策略: 步骤4.1、首先根据建模结果建立微服务实例与算网模型节点之间以及微服务间传输数据量与算网模型中网络传输速率之间的开销模型如下3: 上式3中:c1,c2表示开销系数,优化目标公式中:表示数据传输开销,表示因端侧算力设备资源利用率升高对响应时延影响引起的开销,Xp,m为决策变量0-1变量,限定一个微服务实例只能部署于一个端侧算力设备,并且单个端侧算力设备上部署的实例占用资源不超过资源上限; 步骤4.2,根据最优的部署策略,在端侧算力设备资源约束下执行服务部署算法,当同一端侧算力设备部署的微服务实例数量多时,将使资源利用率上升的同时,不同实例间对资源抢占的冲突加重,增加响应时延,导致端侧算力设备开销的增加,另一方面,一对上下游微服务实例部署在不同的端侧算力设备上时,端侧算力设备之间网络传输速率与该实例对间传输数据量会影响传输时延的大小,同样导致端侧算力设备传输开销的增加,需要在服务部署过程中需要权衡二者的开销,同时考虑资源的限制与部署的位置,以生成最优的部署策略; 步骤5,将生成的最优的部署策略下发至各个端侧算力设备的Kubelet执行,Kubelet根据部署结果更新端侧算力设备所部署的微服务实例,并维护其运行。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励