杭州电子科技大学曾艳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于动态负载均衡的混合专家模型分布式训练方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118838711B 。
龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410897076.2,技术领域涉及:G06F9/50;该发明授权一种基于动态负载均衡的混合专家模型分布式训练方法是由曾艳;黄成创;梅一鹏;张立夫;叶伟;薛梅婷;万健设计研发完成,并于2024-07-05向国家知识产权局提交的专利申请。
本一种基于动态负载均衡的混合专家模型分布式训练方法在说明书摘要公布了:本发明公开了一种基于动态负载均衡的混合专家模型分布式训练方法,该方法首先通过采样器捕获token特征、专家参数、内存和计算资源信息、通信情况,构成采样数据。其次基于采样数据构建的MoE训练负载模型,获取各节点总的内存资源和计算资源。然后通过专家调度实现负载均衡,减少All‑to‑All通信延迟。最后构建专家容量模型,为不同的专家设定容量值。本发明实现专家容量的动态调整,提升设备的资源利用率,降低了通信的开销,解决训练精度和资源消耗的矛盾。
本发明授权一种基于动态负载均衡的混合专家模型分布式训练方法在权利要求书中公布了:1.一种基于动态负载均衡的混合专家模型分布式训练方法,其特征在于,包括以下步骤: 步骤1:通过采样器捕获token特征、专家参数、内存和计算资源信息、通信情况,构成采样数据; 步骤2:基于采样数据构建的MoE训练负载模型,获取各节点的内存和计算资源; 步骤3:通过专家调度实现负载均衡,减少All-to-All通信延迟; 步骤4:构建专家容量模型,为不同的专家设定容量值,具体实现过程为:首先通过对每个专家在m次迭代的采样周期内的token计数获取基线容量B;其次通过采样器得到专家i在m次迭代中需要处理的token的平均数量获取容量系数r,最后通过采样器所获取的token处理数量Ti,得到容量因子F,实现专家容量的动态调整,通过让多种专家在同一GPU加速器上充分共享资源提高GPU加速器的资源利用率;B为基线容量,F为容量因子,用于对专家容量进行动态调整,则每个专家i的容量Ci表示为如下公式: Ci=B+F*r 其中B是通过对每个专家在m次迭代的采样周期内的token计数进行统计分析而构建的,极值将丢弃,m次迭代的平均值被用作每个专家的token负载;对所有专家的token负载进行排序,并且选择覆盖token数量的前p%的值作为基线容量B,因子r被定义为: 其中表示专家i在m次迭代中需要处理的token的平均数量;容量系数F计算如下: 其中Ti表示由负载评估模型确定的专家i的token数量,对于冷门专家,Ti-B为负,导致Ci降低;相反,F对受欢迎的专家是有利的,导致Ci增加;Total_token为总的token数量;此外同一GPU加速器上所有专家的总内存需求Mcost小于GPU加速器的总内存,专家i的存储需求由下式给出: Mcost=Mp+Ma+Mt 其中Mp、Ma和Mt分别表示专家参数、中间激活和token的内存开销,其中专家参数和中间激活将通过采样器获得,token的内存开销将根据Ci得到,对每个专家的存储需求和总的内存资源进行对比,当不符合需求时,就在原先的基础上减少Ci的大小,使得最终结果符合要求。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市钱塘区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励