北京理工大学林知微获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利一种兼具AdamW和SGDM的深度神经网络优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116206172B 。
龙图腾网通过国家知识产权局官网在2025-08-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211615040.8,技术领域涉及:G06V10/774;该发明授权一种兼具AdamW和SGDM的深度神经网络优化方法是由林知微;张嵩川;王涛;王成吉;周亦炜设计研发完成,并于2022-12-15向国家知识产权局提交的专利申请。
本一种兼具AdamW和SGDM的深度神经网络优化方法在说明书摘要公布了:本发明公开了一种兼具AdamW和SGDM的深度神经网络优化算法。考虑目前大模型和大数据对模型收敛速度有较高要求,所有优化算法都有陷入局部最优的可能性,本发明引入分离式学习率的思想,将AdamW和SGDM两种算法融合,提高了算法精确度,使收敛速度更快且效率更高;采用部分计算结果复用的方法,避免了算法时间和空间复杂度的增加;构建了避免局部最优策略并列结构,对AdamW采用舍弃部分更新量的策略,避免陷入局部最优后,因后期梯度过小难以跳出极值点的问题,对SGDM采用动态调整学习率的方式跳出局部最优;提出了学习率调整策略,在算法停止优化时,通过增大学习率的方式,使深度神经网络跳出局部最优,有效提高了算法的最终精度。
本发明授权一种兼具AdamW和SGDM的深度神经网络优化方法在权利要求书中公布了:1.一种兼具AdamW和SGDM的深度神经网络优化方法,其特征在于,包括以下步骤: S1:根据数据集需要构建深度神经网络模型,对深度神经网络模型中的参数进行随机初始化,将数据集分为训练集和测试集两部分,数据集为图像数据; S2:计算深度神经网络模型对应当前训练数据的梯度; S3:根据当前训练数据的梯度,计算深度神经网络优化算法中的AdamW和SGDM部分的更新量; S4:舍弃深度神经网络优化算法中AdamW的部分更新量; S5:若深度神经网络停止优化,则调整SGDM部分的学习率; S6:将S3和S4中已处理的AdamW和SGDM部分乘以各自的学习率之后相加,得到每个参数的更新量; S7:完成权重衰减部分并根据S6中的更新量更新深度神经网络中各个参数,迭代次数自加1;若已完成训练集中所有数据的训练,则epoch自加1; S8:当所述epoch达到设定值时,输出当前的模型参数,结束本流程;否则,返回S2; 所述S1包括以下子步骤: S11:读取预设定的超参数和随机种子; S12:根据所述随机种子对深度神经网络模型的参数按照均值为0,方差为1的正态分布进行随机初始化; 所述S3包括以下子步骤: S31:计算梯度的累计和梯度平方的累计; S32:计算AdamW的自适应学习率部分; S33:将梯度的累计、梯度平方累计的倒数和自适应学习率相乘组成AdamW的更新量,同时梯度的累计也组成SGDM的更新量; S4包括以下子步骤: S41:根据所述超参数,生成与深度学习模型包含参数总量一致的,符合伯努利分布的数列; S42:将AdamW的更新量依次与所述数列中的数相乘,得到处理后的AdamW的更新量; S5包括以下子步骤: S51:在每一个epoch的最后一次训练结束后,记录当前训练的训练集精确度,若此时已记录的精确度数量达到5,则进入S52,否则进入S6; S52:删除最早记录的训练集精确度,若此时记录中的最大值与最小值的差距小于1%,则记录当前epoch数为epst,在5个epoch后的最后一个epoch为eped; S53:若epst≤epocheped,则提升SGDM部分对应的学习率;否则,将学习率恢复至所述超参数的初始值。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。