Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 上海电力大学杜海舟获国家专利权

上海电力大学杜海舟获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉上海电力大学申请的专利一种面向电力移动边缘计算的高扩展性联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116455898B

龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310386448.0,技术领域涉及:H04L67/10;该发明授权一种面向电力移动边缘计算的高扩展性联邦学习方法是由杜海舟;倪诚栋设计研发完成,并于2023-04-12向国家知识产权局提交的专利申请。

一种面向电力移动边缘计算的高扩展性联邦学习方法在说明书摘要公布了:本发明公开了一种面向电力移动边缘计算的高扩展性联邦学习方法。针对移动边缘计算在电力行业的可扩展性难题,本发明通过部署多台相互合作的边缘服务器来提升系统的可扩展性。其中,本发明具有两个全新特征:1它能够对每台工作设备的本地模型更新次数进行自适应决定;2它能够动态调整工作设备和边缘服务器之间的模型同步传输。通过上述两点特性,本发明设计了一种控制机制。它由两个关键模块组成:基于强化学习技术在边缘服务器端实现自适应迭代次数制定模块;基于激励机制在工作设备端实现工作设备与边缘服务器的动态选择模块。该发明相比以往方法能有效提升电力移动边缘计算领域的可扩展性,拥有更高的模型精度和更低的能量开销。

本发明授权一种面向电力移动边缘计算的高扩展性联邦学习方法在权利要求书中公布了:1.一种面向电力移动边缘计算的高扩展性联邦学习方法,其特征在于:包括, 基于多边缘服务器技术在边缘服务器一侧部署自适应算法模块; 在工作节点一侧部署动态选择模块; 在任意训练轮次中,每个工作设备自适应本地迭代次数,每个工作设备动态选择模型同步的边缘服务器; 设计一种面向电力移动边缘计算的高扩展性联邦学习方法的控制机制,所述控制机制包括一个基于深度强化学习的算法模块和一个基于激励机制的动态选择模块; 在边缘服务器一侧部署基于深度强化学习的算法模块,所述基于深度强化学习的算法模块使用好奇心探索帮助算法模块快速收敛,并基于深度强化学习设计了对应的状态空间、动作空间和外部奖励函数,采用时空误差方法对模块内部的训练模型进行更新,根据已知信息训练得到每个边缘服务器对所有工作设备的本地期望的迭代次数和对应的模型同步二元变量; 通过在工作设备一侧部署基于激励机制的动态选择模块,帮助工作设备选择最优的边缘服务器器进行模型同步,从而提升电力移动边缘计算下联邦学习方法的可扩展性; 所述基于深度强化学习的算法模块是一个带有好奇心探索的双深度Q网络DDQN算法模块,分别使用来表示第t个训练轮次下,边缘服务器k内客户端的状态、奖励和外部动作,这里奖励由两部分组成,分别是内部奖励和外部奖励即: 由于深度强化学习的算法模块内的好奇心探索拥有两个完全相同的神经网络,分别为好奇心目标网络和好奇心预测网络其中,和分别对应这两个神经网络的模型参数,至此,内部奖励定义为两者的均方误差: 其中,好奇心目标网络通过梯度下降的方式最小化进行参数更新,而好奇心预测网络则通过软更新的方式进行模型更新; 基于深度强化学习的算法模块核心技术是DDQN,包括两个神经网路参数架构一致的深度学习模型Q值逼近函数和Q值函数其中θ'k分别是Q值逼近函数和Q值函数的模型参数信息,通过时空差对DDQN进行神经网路模型参数的更新,用来表示时空差目标: γ∈[0,1是用来减少未来奖励重要性的打折系数,定义时空差误差为: 通过梯度下降方法最小化来进行更新,即 其中,α表示扩展步长; 所述基于深度强化学习设计了对应的状态空间、动作空间和外部奖励函数包括,状态空间定义为表示在t个训练轮次中,边缘服务器k的全局模型参数;由向量组成,表示工作设备i所有资源的所剩余量,假设一共存在U类资源,则任意一类资源u在工作设备i内的初始总量为ri,u,在第t轮训练轮次中,假设工作设备i每执行一次本地迭代训练就会消耗个单位的u类资源;而工作设备i与边缘服务器k进行的模型同步会消耗个单位的u类型资源,则有: Wt表示在第t轮训练轮次下,边缘服务器之间的网络拓扑,这里den·是计算网络拓扑图的密度函数; 动作空间定义为在收到状态空间后,边缘服务器k内的客户端将生成动作矩阵这个矩阵有M个决策向量i=1,2,…M构成,这意味着每个边缘服务器k都会为所有参与模型训练的M台工作设备制定动作决策,在第t个训练轮次中,任意一个边缘服务器k内的客户端所产生的某工作设备i的动作决策由两个决策变量组成,分别是该工作设备i期望的模型本地迭代次数和是否希望让工作设备i边缘服务器k进行模型同步的01二元变量 对于任意边缘服务器k内的客户端外部奖励函数定义为: 其中,都是值为正的扩展因子,β是正则化系数,∈指代在不同联邦学习训练任务中设定的模型期望精度,函数计得到当前模型为x对应的模型实际精度;表示在第t个训练轮次中,与边缘服务器实际进行模型同步工作设备数量; 所述基于激励机制的动态选择模块包括,定义来表示工作设备i选择边缘服务器k进行模型同步的概率,用一个分段函数来表达: 为每台工作设备设计动态激励,该激励是根据在训练轮次t中工作设备i选择了边缘服务器k而获得: 其中,是在第t轮训练轮次中,根据边缘服务器k上的模型性能得到脉冲变量;σi是与工作设备数据分布相关的贡献比重;而Ri则是工作设备参与训练而获得的一个补偿常数,下面建立关于的模型: 其中,ω是一个关于脉冲程度的参数,而是服务器间理论上能达到的最大模型精度,在第t轮训练轮次中,工作设备i选择加入边缘服务器k的模型同步设备集合后,资源开销为 所以,工作设备i选择加入边缘服务器k进行模型同步的利用率计算为: 其中,表示一个线性的函数,综上,在众多边缘服务器中,工作设备i想要进行模型同步的平均利用率表示为, 而每台设备都会为了追寻更高的利用率去决定最合适的服务器进行模型同步。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人上海电力大学,其通讯地址为:201306 上海市浦东新区沪城环路1851号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。