昆明理工大学余正涛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉昆明理工大学申请的专利基于领域特定子层隐变量的多领域自适应神经机器翻译方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115204196B 。
龙图腾网通过国家知识产权局官网在2025-08-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210823703.9,技术领域涉及:G06F40/58;该发明授权基于领域特定子层隐变量的多领域自适应神经机器翻译方法是由余正涛;文永华;黄双宏;徐金磊设计研发完成,并于2022-07-14向国家知识产权局提交的专利申请。
本基于领域特定子层隐变量的多领域自适应神经机器翻译方法在说明书摘要公布了:本发明提出基于领域特定子层隐变量的多领域自适应神经机器翻译方法。领域适应可以有效解决特定领域翻译性能差的问题,现有方法通常依靠混合多个领域数据来获得单个通用的多领域神经机器翻译模型。然而,大规模通用领域数据与多个特定领域数据的混合会造成最终模型灾难性遗忘、域间参数干扰的问题,从而导致性能下降以及通用领域模型容量不足的矛盾。因此本发明使用Gumbel‑Softmax重新参数化技巧同时学习模型参数和隐变量,获得的模型能学习特定领域的知识,并通过隐变量共享通用领域知识。实验结果表明,在多领域神经机器翻译中,本发明在英德和中英多领域神经机器翻译中比基线模型分别平均提高了3.2和1.68BLEU值。
本发明授权基于领域特定子层隐变量的多领域自适应神经机器翻译方法在权利要求书中公布了:1.基于领域特定子层隐变量的多领域自适应神经机器翻译方法,其特征在于:所述方法的具体步骤如下: Step1、下载训练数据集,使用工具对数据进行数据预处理操作; Step2、在Transformer模型的基础上,使用“Pre-LN”前向归一化操作,插入领域特定子层隐变量,使用Gumbel-Softmax重新参数化技巧来同时学习模型参数和隐变量; Step3、最后通过混合由领域标签控制的通用领域和特定领域数据联合训练并获得一个统一的多领域神经机器翻译模型来进行翻译; 所述Step2的具体步骤: 首先,训练过程中在Transformer架构上使用“Pre-LN”前向归一化而不是“Post-LN”后向归一化来提高模型稳定性; 其次插入领域特定子层隐变量来控制模型是否跳过当前子层,当隐变量值为0时当前子层将被跳过,隐变量值为1时,当前子层将被选择;为此,引入后验概率分布逼近隐变量的真实分布,引入变分推理来求解领域特定子层隐变量; 最后从近似后验概率分布中采样,使用Gumbel-Softmax重新参数化技巧来同时学习模型参数和隐变量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人昆明理工大学,其通讯地址为:650500 云南省昆明市呈贡区景明南路727号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。