华中科技大学袁正一获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华中科技大学申请的专利一种动态计算环境下深度神经网络的分布式并行训练方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119808891B 。
龙图腾网通过国家知识产权局官网在2025-12-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411880417.1,技术领域涉及:G06N3/098;该发明授权一种动态计算环境下深度神经网络的分布式并行训练方法是由袁正一;王雄;聂云涛;陶宇飞;李雨晴设计研发完成,并于2024-12-19向国家知识产权局提交的专利申请。
本一种动态计算环境下深度神经网络的分布式并行训练方法在说明书摘要公布了:本发明属于分布式系统优化与调度相关技术领域,具体涉及一种动态计算环境下深度神经网络的分布式并行训练方法,包括:通过最小化异步流水线的实际收敛时间,确定模型切分方案,并将该切分方案对应的各模型切片分发至对应设备节点上,其中,上述实际收敛时间为预设收敛误差所对应的迭代次数上限与单次迭代所需的流水线最优运行时间的乘积;每个设备节点上配置有已训练的轻量级随机森林模型,用于评估位于该设备节点的额外负载对位于该设备节点的模型切片的训练效率的干扰影响。启动训练后,实时获取由各设备节点上的随机森林模型所得到的干扰影响对应的干扰系数,通过模型搜索空间剪枝和遍历算法得到新的切分方案,并通过层迁移实现高效训练。
本发明授权一种动态计算环境下深度神经网络的分布式并行训练方法在权利要求书中公布了:1.一种动态计算环境下深度神经网络的分布式并行训练方法,其特征在于,包括: S1、通过最小化异步流水线的实际收敛时间,确定深度神经网络模型切分方案,并将该切分方案对应的深度神经网络模型各模型切片分发至对应设备节点上,其中,所述异步流水线的实际收敛时间为预设收敛误差所对应的迭代次数上限与单次迭代所需的流水线最优运行时间的乘积;每个设备节点上配置有已训练的轻量级随机森林模型,用于评估位于该设备节点的额外负载对位于该设备节点的模型切片的训练效率的干扰影响; S2、启动深度神经网络模型的训练之后,实时获取由各设备节点上的轻量级随机森林模型所预测得到的所述干扰影响对应的干扰系数,并基于深度神经网络模型中每层在其当前计算环境下的通信和计算时间,识别出深度神经网络模型中影响训练效率的最重要的前k层,将该前k层中每层的预设数量的相邻层与该层合并,作为模型切片规划中的一个逻辑单元层,得到模型简化结构,基于该模型简化结构确定遍历算法所需的输入参数,并将所述干扰系数作为所述遍历算法的一个输入参数,通过遍历算法得到新的深度神经网络模型切分方案;若当前已配置的与该新的深度神经网络模型切分方案不同,通过在训练中的空闲时间段逐步迁移部分层的计算任务来动态地调整设备节点之间的负载分布,实现新的模型切分方案的配置,重复S2步骤,直至完成动态计算环境下深度神经网络的分布式并行训练;最小化异步流水线的实际收敛时间的方式为: 式中,S为模型切片的数量;为单次迭代所需的流水线最优运行时间,为所有设备节点中的GPU总数目;为预设收敛误差;为神经网络模型训练时所需的学习率;为平滑常数;为二次矩量;为梯度方差。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华中科技大学,其通讯地址为:430074 湖北省武汉市洪山区珞喻路1037号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励