华南理工大学林冬婷获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利协同混合联邦学习的资源分配优化方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116669067B 。
龙图腾网通过国家知识产权局官网在2025-09-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310385925.1,技术领域涉及:H04W24/02;该发明授权协同混合联邦学习的资源分配优化方法及系统是由林冬婷;刘元设计研发完成,并于2023-04-11向国家知识产权局提交的专利申请。
本协同混合联邦学习的资源分配优化方法及系统在说明书摘要公布了:本发明公开了一种协同混合联邦学习的资源分配优化方法,包括以下步骤:S1.建立设备、用户和服务器的协同混合联邦学习系统,计算设备与用户数据之间的相似度,确定数据在用户与服务器之间的分布;S2.计算协同混合联邦学习系统进行联邦训练各阶段设备、用户和服务器的能耗与时延,获得系统的能耗与时延;S3.确定优化变量带宽资源比例及通信轮数,以学习损失和通信时延为约束,建立以最小化能耗为目标的模型;S4.根据模型及优化变量特征将优化问题转换成数学子问题,对子问题进行求解,获得资源分配优化问题方案。考虑了网络设备资源与数据的异质性,有效权衡了通信成本与模型性能,根据相似度准则,使联邦训练节点数据更具多样性,提高模型训练的性能。
本发明授权协同混合联邦学习的资源分配优化方法及系统在权利要求书中公布了:1.一种协同混合联邦学习的资源分配优化方法,其特征在于,包括以下步骤: S1.建立设备、用户和服务器的协同混合联邦学习系统,计算设备和用户的数据相似度,确定数据在用户与服务器之间的分布; S2.计算协同混合联邦学习系统进行联邦训练各阶段设备、用户和服务器的能耗与时延,获得系统的能耗与时延; S3.确定设备和用户的带宽资源比例,以及用户和服务器的通信迭代次数,以最小化能耗为目标建立模型,确定模型的约束条件; S4.将模型优化问题解耦带宽资源分配优化子问题和通信轮数优化子问题,对子问题进行求解,获得资源分配优化方案; 协同混合联邦学习系统进行联邦训练,包括以下阶段: 第一阶段:每个设备将数据卸载给相应的服务用户; 第二阶段:每个用户接收到对应服务的设备数据后,先判定设备与用户的数据是否相似,若设备与用户的数据相似,直接将设备数据转发给服务器; 若设备与用户的数据不相似,则将设备数据添加到用户的本地数据进行本地训练得到本地模型,然后用户将本地模型传输给服务器; 第三阶段:服务器使用用户的传输数据进行本地训练得到本地模型,服务器将训练的本地模型与用户发送的本地模型聚合到全局模型; 计算设备的能耗和时延,方法为: 第一阶段,设备将数据卸载给用户的可实现数据速率为: Ri′=βi′Ci′ 式中,βi′为分配给设备i′的带宽比例,Ci′为设备i′的信道容量,Ri′为设备i′将数据卸载给用户i的可实现数据速率; 其中,设备的信道容量计算公式为: 式中,B为总带宽,pi′为设备i′的发射功率,hi′,i为设备i′到用户i的信道功率增益,n0为背景噪声功率; 得到设备传输数据消耗的时间为: 式中,Di′为设备i′的本地数据,为设备i′传输数据的时间; 得到设备传输数据消耗的能量为: 式中,为设备i′传输数据的能量消耗; 计算用户的能耗和时延,方法为: 第二阶段,用户将相似数据卸载到服务器,传输数据的可实现数据速率为: 式中,为用户将相似数据卸载到服务器,分配给用户i的带宽比例;Ci为用户i的信道容量;为用户i将相似数据卸载到服务器的可实现数据速率; 其中,用户的信道容量的计算公式为: 式中,pi为用户i的传输功率,hi为用户i到服务器的信道功率增益; 用户将相似数据卸载到服务器,传输数据消耗的时间为: 式中,表示用户i服务的设备集;表示一组与用户i的数据不相似的设备,用户将相似数据卸载到服务器,传输数据消耗的能量为: 式中,为用户i传输数据消耗的能量; 第二阶段,用户将本地模型卸载到服务器,传输数据的可实现数据速率为: 其中,为用户将本地模型卸载到服务器,分配给用户i的带宽比例;为用户i将本地模型卸载到服务器的可实现数据速率; 用户将本地模型卸载到服务器,传输数据消耗的时间为: 式中,W为本地模型的大小,单位为比特;为用户i传输本地模型消耗的时间; 用户将本地模型卸载到服务器,传输数据消耗的能量为: 式中,为用户i传输本地模型消耗的能量; 对于用户的本地训练,每个用户消耗的时间为: 式中,Di为用户i的本地数据,c为模型训练中的CPU周期数,为用户i本地训练消耗的时间,fi为用户i的CPU周期速度; 每个用户消耗的能量为: 式中,ξ为与CPU相关的芯片电容,为用户i本地训练消耗的能量; 计算服务器的能耗和时延,方法为: 第三阶段,服务器训练模型消耗的时间为: 式中,表示用户集;fI+1为服务器的CPU周期速度;为服务器训练模型消耗的时间; 服务器训练模型消耗的能量为: 式中,eI+1为服务器训练模型消耗的能量; 得到系统每轮通信的总时延为: T=max{T1,T2} 式中,T1为包括设备到用户、用户到服务器数据传输和服务器计算的时间,T2为包括设备到用户、用户计算和用户到服务器本地模型传输的时间,T为系统每轮通信的总时延; 其中,T1和T2的计算公式为: 式中,γ为每轮通信中局部训练迭代的次数; 得到在通信环节中系统消耗的总能量为: 式中,E为通信环节中系统消耗的总能量; 以最小化能耗为目标建立的模型为: 式中,β为带宽资源的分配比例, 为用户将相似数据卸载到服务器,带宽资源的分配比例, 为用户将本地模型卸载到服务器,带宽资源的分配比例,K为总通信轮数; 模型的约束条件为: Fw≤ζ KT≤Tmax 式中,ζ为最大允许学习损失,Tmax为整个联邦训练的最大允许时延,为正整数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励