南京邮电大学陈思光获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利一种计算分层的联邦学习训练方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115859114B 。
龙图腾网通过国家知识产权局官网在2025-08-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211619123.4,技术领域涉及:G06F18/214;该发明授权一种计算分层的联邦学习训练方法是由陈思光;石雁航;黄宇虹设计研发完成,并于2022-12-14向国家知识产权局提交的专利申请。
本一种计算分层的联邦学习训练方法在说明书摘要公布了:本发明属于物联网技术领域,公开了一种高效的计算分层的联邦学习训练方法,包括:步骤1:构建一个计算分层的联邦学习系统模型,步骤2:在联邦学习系统模型中允许用户在不需要进行本地梯度计算或连续数据传输的情况下参与联邦训练,该原则通过在线方法和离线方法实现;步骤3:针对联邦学习系统模型中的竞争、用户移动性、新的数据任务不断呈现给联邦学习系统模型和隐私保护的挑战提供解决方案。本发明使资源受限的设备能够在设备训练和轻量级消息传输的基础上执行联邦训练,在线和离线方法允许设备在不需要进行本地梯度计算或连续数据传输的情况下参与联邦训练,在保障性能的基础上减轻训练负担,减少通信开销。
本发明授权一种计算分层的联邦学习训练方法在权利要求书中公布了:1.一种计算分层的联邦学习训练方法,其特征在于:联邦学习训练方法包括如下步骤: 步骤1:构建一个计算分层的联邦学习系统模型,所述联邦学习系统模型由服务提供商、用户和协调中心三个部分组成,服务提供商位于边缘层,用户位于用户层,协调中心位于云服务器层,在系统模型中,边缘节点协调用户节点之间的协同训练,为用户节点提供计算辅助; 步骤2:构建实现步骤1联邦学习系统模型的原则,在联邦学习系统模型中允许用户在不需要进行本地梯度计算或连续数据传输的情况下参与联邦训练,该原则通过在线方法和离线方法实现; 步骤3:针对联邦学习系统模型中的竞争、用户移动性、新的数据任务不断呈现给联邦学习系统模型和隐私保护的挑战提供解决方案; 其中: 将训练任务的计算负载从用户层“迁移”到边缘层是引入一个可训练的损失函数以增强边缘侧的模型训练,具体流程包括如下步骤: 步骤2-2-1:服务提供商首先对其具有监督损失和数据增强器的本地数据集进行模型训练; 步骤2-2-2:然后服务提供商随机选择连接用户的子集并将训练后的模型分发给子集; 步骤2-2-3:用户在本地数据集上评估更新后模型的质量,并将性能分数发送回服务提供商; 步骤2-2-4:服务提供商用辅助损失的参数和性能分数训练值函数; 步骤2-2-5:用值函数优化辅助损失函数; 在服务提供商训练目标模型之前,数据增强器对局部数据提供扰动,具体的步骤如下: 步骤2-1-1:服务提供商首先对其具有监督损失和辅助损失的本地数据集进行模型训练; 步骤2-1-2:然后服务提供商随机选择连接用户的子集并将训练后的模型分发给子集; 步骤2-1-3:用户在本地数据集上评估更新后模型的质量,并将性能分数发送回服务提供商; 步骤2-1-4:服务提供商用数据增强器的参数和性能分数训练值函数; 步骤2-1-5:用值函数优化数据增强器; 所述离线方法利用知识蒸馏方法实现,具体的,在知识蒸馏方法中,所有用户级节点仅在三个时间点与服务提供商通信,第一个时间点是服务提供商在没有用户节点参与的情况下完成了模型的训练即,在边缘完成了本地训练或协作训练,预训练模型将被每个用户下载,之后,用户进行微调以定制预训练模型,在此期间,服务提供商等待与用户的第二次通信,即用户将本地修改的模型上传到服务提供商,在接收到个性化模型后,服务提供商执行知识蒸馏,通过聚合用户的知识来细化目标模型,此过程将在边缘侧执行几轮,直到模型收敛,最后,用户从服务提供商下载目标模型,并自由断开与服务提供商的网络连接。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210003 江苏省南京市鼓楼区新模范马路66号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。