山西大学杨陟卓获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉山西大学申请的专利一种基于知识图和BART语义的多文档摘要方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116860960B 。
龙图腾网通过国家知识产权局官网在2025-12-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310812349.4,技术领域涉及:G06F40/16;该发明授权一种基于知识图和BART语义的多文档摘要方法是由杨陟卓;褚强设计研发完成,并于2023-08-10向国家知识产权局提交的专利申请。
本一种基于知识图和BART语义的多文档摘要方法在说明书摘要公布了:本发明属于自然语言处理技术领域,具体涉及一种基于知识图和BART语义的多文档摘要方法。该方法包括以下步骤:构建多文档摘要训练数据集;构建面向多文档摘要的知识图;构建融合知识和图注意力的多文档摘要模型;训练多文档摘要模型并生成摘要。本发明融合外部知识的语义知识图加强远距离实体的联系,采用知识图和BART语义信息融合的方法,使模型能够更好地结合知识图和文本序列的注意力,弥补深度学习模型的缺点,降低模型对大规模标注样本的依赖,生成质量更高的摘要内容。
本发明授权一种基于知识图和BART语义的多文档摘要方法在权利要求书中公布了:1.一种基于知识图和BART语义的多文档摘要方法,其特征在于,包括以下步骤: S1,构建多文档摘要训练数据集; S2,构建面向多文档摘要的知识图; S3,构建融合知识和图注意力的多文档摘要模型; S4,训练多文档摘要模型并生成摘要; 所述S3中构建融合知识和图注意力的多文档摘要模型,具体步骤为: S301,对融合知识图网络进行知识表示:首先对知识图进行初始化编码,获得节点特征向量;其次利用图注意力网络对图节点表示学习;最后对知识图节点中的主语节点、宾语节点和谓语表示进行更新,根据输入节点的特征,使用自注意力机制得到节点对节点的影响力系数,知识图的表示如式2、3所示: 2 3 其中,代表第个多头自注意力的计算得分,为可训练权重,为节点之间的注意力权重,表示知识图中待更新的节点,、表示与相关联的邻居节点,表示与节点有关联的邻居节点集合; 为了避免多次迭代后梯度消失,还添加一个残差连接,得到最终输出,如式4所示: 4 其中,表示与节点有关联的邻居节点,表示随机初始化权重,表示个多头注意力的连接,节点为结合多头注意力机制的最终输出特征; S302,获取知识图与文本的BART语义信息:根据S202的知识图,以及S102的起始文档,首先将知识图转换为线性文本的形式,先将知识图分解成多个连通子图,按照子图的大小遍历子图,在每个子图中,连通子图按照包含节点,为节点的数量,对其进行降序排列,从包含节点数最多的节点开始,以宽度优先搜索的方法向下移动子图,将遍历的结果线性化为字符串列表,返回线性化的图文本; 其次对起始文档、线性图文本分别编码输入BART语义编码器,其中BARTEncoder处理文档,LinearGraphEncoder处理线性图文本,起始文档的编码和线性图的编码如式56所示: 5 6 其中,、为和初始向量嵌入,为和位置嵌入; 对分别进行基于Transform的多头自注意力计算,并更新起始文档和线型文本的表示,如式7所示: 7 其中,和为起始文档和线型文本经过注意力交互后得到的语义表示; S303,通过将知识图与文档文本的上下文化得到具有注意力机制的向量进行连接融合:通过S301得到知识图的节点注意力以及S302得到的对于线性图的编码层,再与起始文档表示拼接,获取多文档的最终语义表示,具体实现如式8、9、10所示: 8 9 10 其中,是进行注意力融合与标准化的方法,是多头注意力方法,是一个以作为隐藏激活函数的前馈网络,是融合的结果,是与拼接的结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山西大学,其通讯地址为:030006 山西省太原市小店区坞城路92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励