北京邮电大学韩书君获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京邮电大学申请的专利一种移动场景下的端边协同智能任务处理方法、装置、设备和存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119584199B 。
龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411583230.5,技术领域涉及:H04W28/06;该发明授权一种移动场景下的端边协同智能任务处理方法、装置、设备和存储介质是由韩书君;张文昭;王碧舳;孙梦颖;许晓东设计研发完成,并于2024-11-07向国家知识产权局提交的专利申请。
本一种移动场景下的端边协同智能任务处理方法、装置、设备和存储介质在说明书摘要公布了:一种移动场景下的端边协同智能任务处理方法、装置、设备和存储介质,该方法针对移动智能终端在多个边缘节点的覆盖范围间切换过程中基于模型切分的移动场景下的端边协同智能任务处理,提出选择切换前原服务节点协同、选择切换后所属节点协同以及在本地处理三种任务处理方案,结合终端设备与所选边缘节点的算力资源、二者之间的通信质量、终端设备的移动位置等环境信息,对智能任务处理方案和模型切分进行动态联合优化决策,解决移动场景下设备环境与资源动态变化带来的动态决策挑战,以及边缘节点间任务迁移产生的冷启动问题,降低在端侧设备处于节点切换期间基于模型切分的端边协同智能任务的处理时延。
本发明授权一种移动场景下的端边协同智能任务处理方法、装置、设备和存储介质在权利要求书中公布了:1.一种移动场景下的端边协同智能任务处理方法,其中,包括: 中央服务器接收任务处理请求,所述任务处理请求由移动智能终端产生智能任务时向所述中央服务器发起,所述智能任务包括模型推理、模型训练的AI工作流任务; 中央服务器对当前边缘网络中设备的可用资源以及环境信息进行感知,得到感知数据;所述边缘网络中设备包括移动智能终端和边缘节点; 中央服务器根据所述感知数据,利用智能任务处理决策算法,以最小化节点切换期间基于模型切分的智能任务端边协同处理时延为目标,对处理方案和模型切分进行联合优化决策,并将联合优化决策指令下发到所述移动智能终端和所述边缘节点; 所述移动智能终端和所述边缘节点按照所述处理方案和所述模型切分的联合优化决策协同执行智能任务,并将执行结果返回给所述移动智能终端,完成所述移动智能终端发起的所述任务处理请求; 智能任务处理的时延包括本地计算时延、中间特征传输时延、基站侧计算时延、缓存下载时延、节点侧计算时延和节点间切换时延; 移动智能终端在多个边缘节点的覆盖范围间切换过程中基于模型切分的端边协同推理时延最小化可以转化为: s.t.0≤l≤N, Hsum≤H·emax 式中,x为服务执行决策,l为模型切分决策,t为总的任务处理时延,t1为在本地执行任务时的智能任务处理时延,t2为在切换后所属边缘节点进行端边协同推理时的智能任务处理时延,t3为在切换前原服务边缘节点进行端边协同推理时的智能任务处理时延,xi,s=1,i∈[1,M]表示选择第i个基站作为服务节点,将任务切分卸载到该基站执行;xi,r=1,i∈[1,M]表示选择第i个基站作为中继节点,通过该中继节点与原服务基站建立连接并执行任务;M为边缘智能基站数量;H为当前所属节点与相邻节点的切换时延,与节点间数据传输以及节点重新配置开销有关,Hsum为所属节点的相邻节点与原服务节点间的累积切换时延;emax为最大的中继节点数量; 优化问题为离散优化问题,通过强化学习算法对任务推理方案决策和模型切分决策进行实时联合优化调度;模型输入为所述感知数据,包括所述移动智能终端和所述边缘节点的可用算力资源、所述移动智能终端的位置信息、所述移动智能终端与所述边缘节点之间的通信环境、所述边缘节点的缓存情况;模型输出为服务执行决策与模型切分决策,以所述端边协同推理时延的相反数为奖励函数指导强化学习模型进行训练,直至模型收敛,得到最小化端边协同智能任务处理时延的联合优化决策。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励