沈阳雅译网络技术有限公司刘兴宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉沈阳雅译网络技术有限公司申请的专利一种基于预训练指导的多领域机器翻译系统构建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114118105B 。
龙图腾网通过国家知识产权局官网在2025-08-01发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111230529.9,技术领域涉及:G06F40/58;该发明授权一种基于预训练指导的多领域机器翻译系统构建方法是由刘兴宇;杨迪设计研发完成,并于2021-10-22向国家知识产权局提交的专利申请。
本一种基于预训练指导的多领域机器翻译系统构建方法在说明书摘要公布了:本发明公开一种基于预训练指导的多领域机器翻译系统构建方法,步骤为:通过网站获取开源预训练模型;通过网站获取开源数据集,并进行清洗;使用预训练模型对当前需要翻译的源语言文本进行编码;使用预训练模型对当前需要翻译文本的上下文进行编码;使用卷积神经网络对上下文的编码结果进行特征提取;使用增强注意力机制处理源语言文本的编码结果和上下文的特征提取结果;使用Transformer解码器接收增强注意力机制处理的结果,生成目标译文;使用数据集对机器翻译系统进行训练,实现系统的构建。本发明增强了机器翻译系统对广泛领域文本的翻译效果,降低了翻译模型的训练成本,提高译文的生成质量,接近翻译领域的“达”、“雅”境界。
本发明授权一种基于预训练指导的多领域机器翻译系统构建方法在权利要求书中公布了:1.一种基于预训练指导的多领域机器翻译系统构建方法,其特征在于包括以下步骤: 1通过网站获取在大规模语料上训练过的开源预训练模型; 2通过网站获取用于训练机器翻译系统的开源数据集,并对其进行清洗,得到干净的、可以直接用于训练机器翻译系统的数据集; 3使用预训练模型对当前需要翻译的源语言文本进行编码; 4使用预训练模型对当前需要翻译文本的上下文进行编码; 5使用卷积神经网络对预训练模型编码上下文的结果进行特征提取; 6使用增强注意力机制处理步骤3对源语言文本进行编码后的结果和步骤5对上下文编码进行特征提取后的结果; 7使用Transformer解码器接收增强注意力机制处理结果,并生成目标译文; 8使用步骤2清洗后的数据集对完整的机器翻译系统进行训练,实现多领域机器翻译系统的构建; 步骤4使用预训练模型对当前需要翻译文本的上下文进行编码,首先将源语言文本的上下文输入给预训练模型,然后抽取预训练模型中每一层结构的计算结果相加作为预训练模型编码处理源语言文本上下文后的结果,具体为: 401在源语言文本上文和下文的中间加上第一符号,用于分隔上文和下文; 402设预训练模型的固定输入长度为N,则使用第二符号对源语言文本的上下文内容进行填充,设填充后的上下文长度为M,则M满足以下条件,其中k为正整数,也就是预训练模型需要编码k次才能够完成所有上下文的编码: M=kNk∈{1,2,3…} 403将处理好的上下文输入给预训练模型,预训练模型进行计算,抽取预训练模型中每一层结构的计算结果相加作为预训练模型编码处理源语言文本上下文后的结果; 步骤5中,使用卷积神经网络对预训练模型编码上下文的结果进行特征提取,是将上下文编码结果压缩成跟预训练模型编码源语言文本相同长度的向量,采用卷积神经网络对上下文编码结果进行压缩,具体如下: 501先将预训练模型编码后的k个结果进行拼接形成一个长度为kd的结果,其中d表示预训练模型编码一次生成结果的长度; 502使用卷积神经网络对拼接后的结果x进行特征提取,在保留关键词特征的同时把长度为kd的结果x降维成长度为d的上下文表示y,满足以下条件: y=CNNx 其中CNN表示卷积神经网络。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人沈阳雅译网络技术有限公司,其通讯地址为:110004 辽宁省沈阳市和平区三好街78号东软电脑城C座11层;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。