武汉大学杨敏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉武汉大学申请的专利一种基于MPC的纵向联邦神经网络的训练方法及装置、推理方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119443310B 。
龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411482252.2,技术领域涉及:G06N20/00;该发明授权一种基于MPC的纵向联邦神经网络的训练方法及装置、推理方法是由杨敏;王宇婷;贺紫怡;孟庆树设计研发完成,并于2024-10-23向国家知识产权局提交的专利申请。
本一种基于MPC的纵向联邦神经网络的训练方法及装置、推理方法在说明书摘要公布了:本发明公开了一种基于MPC的纵向联邦神经网络的训练方法及装置。为解决纵向联邦拆分学习容易遭受模型补全攻击的影响,本发明的神经网络前n层采用模型分片技术,不存在完整的bottom模型,因此不能发起模型补全攻击。为解决由于模型分片而带来的效率问题,在n层之后,借鉴已有模型共享专利思想将模型分片和计算结果的分片都进行算术加和,即采用单服务器的训练和推理模式,以加快运行的速度。由于n通常取值为1或2,所以整个系统的训练和推理效率接近明文的效果,同时保持了安全隐私特性。对于多标签提供方的场景,利用模型和模型结果可分拆可合并特性,将模型和结果再次进行分拆,以保护标签的隐私性。且整体结构仍然适用拆分学习的应用场景。
本发明授权一种基于MPC的纵向联邦神经网络的训练方法及装置、推理方法在权利要求书中公布了:1.一种基于MPC的纵向联邦神经网络的训练方法,其特征在于,应用于包括数据提供方和两个服务器的系统,神经网络模型的前n层以算术分片的方式分别部署在第一服务器和第二服务器上,神经网络模型n层之上的各层全部部署在第二服务器上,所述训练方法包括: 数据提供方将各自的样本数据进行属性扩充,并将属性扩充后的样本数据进行分片,再发送给第一服务器和第二服务器; 当第一服务器和第二服务器接收到一定数量的样本分片后,如果一个样本有标签,则对该样本的所有分片的各个属性做算术加和并除以分片的个数得到第一向量,作为训练数据; 第一服务器和第二服务器基于所述训练数据根据已知的两方安全协议运行前n层的神经网络模型进行训练,在前向传播阶段,当神经网络模型运行到n+1层时,第一服务器将自己的第n层输出的计算结果发给第二服务器,第二服务器将接收的计算结果和自己的计算结果进行算术加和作为n+1层的输入,运行之后的神经网络;在反向传播阶段,当神经网络模型运行到第n层时,第二服务器将计算得到的n层梯度进行算术分片,并将其中一份梯度分片发给第一服务器,然后第一服务器和第二服务器各自完成梯度的反向传播过程,n为正整数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉大学,其通讯地址为:430072 湖北省武汉市武昌区八一路299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励