南京邮电大学吴铭获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利基于递归卷积神经网络的中文句子语义相似度计算方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119476301B 。
龙图腾网通过国家知识产权局官网在2025-10-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411567554.X,技术领域涉及:G06F40/30;该发明授权基于递归卷积神经网络的中文句子语义相似度计算方法是由吴铭;蒋锐;洪涛;张子谦;韩晓云;邵瑞设计研发完成,并于2024-11-05向国家知识产权局提交的专利申请。
本基于递归卷积神经网络的中文句子语义相似度计算方法在说明书摘要公布了:本发明公开了一种基于递归卷积神经网络的中文句子语义相似度计算方法。属于数据挖掘里的数据清洗领域,所述方法基于语义相似度网络模型进行计算,包括:获取句子对数据集,提取数据集中的句子对,得到分词后的文本句子对;提取句子对的初步语义特征和深度语义特征;使用Attention层,根据句子对的深度语义特征生成句子对特征向量的权重;将句子对特征向量的权重输入全连接层,生成句子对的相似度。本发明丰富了词向量的输出内涵,使用自适应池化层更好地反映了原始句子对输入,提升了模型性能表现;设计了Attention层为句子对特征分配相应的权重,使模型聚焦到数据中的关键信息,提取了句子中更直接的语义依赖关系,提升了句子对语义相似度判断的准确率。
本发明授权基于递归卷积神经网络的中文句子语义相似度计算方法在权利要求书中公布了:1.一种基于递归卷积神经网络的中文句子语义相似度计算方法,其特征在于,所述方法基于语义相似度网络模型进行计算,所述基于语义相似度网络模型包括DeBERTa模型、递归卷积神经网络模型、Attention层和全连接层;所述递归卷积神经网络模型中的最大池化层被替换为自适应池化层;全连接层采用Softmax函数;所述方法包括如下步骤: 步骤一、获取句子对数据集,提取数据集中的句子对,将句子对进行预处理,得到分词后的文本句子对; 步骤二、在DeBERTa模型和递归卷积神经网络模型中提取句子对的初步语义特征和深度语义特征; 步骤三、使用Attention层,根据句子对的深度语义特征生成句子对特征向量的权重; 步骤四、将句子对特征向量的权重输入全连接层,生成句子对的相似度; 步骤二包括如下步骤: 步骤2.1、将预处理过的句子对输入DeBERTa模型,通过DeBERTa对句子对进行词嵌入得到动态的词向量,提取句子对的初步语义特征; 所述DeBERTa模型使用解耦注意力机制DAM将每个词都用两个向量表示,分别对其内容和相对位置进行编码,之后分别根据词的内容和相对位置,通过Transformer的Self-attention自注意力机制计算权重; 步骤2.2、将步骤2.1中得到的词向量输入递归卷积神经网络模型,提取句子对深层语义特征; 所述递归卷积神经网络模型,包括双向长短期记忆网络BI-LSTM、CNN卷积层和自适应池化层; 步骤2.2中,深层语义特征生成方法为: 词向量经过拼接双向LSTM模型输出后,输入到CNN卷积层,CNN卷积核对特征向量进行训练得到深层语义特征向量;CNN卷积层得到的深层语义特征向量进入自适应池化层,在自适应池化层中,根据输入特征通道中不同的局部区域调整每个位置的权重大小; 在CNN卷积层之后,自适应池化层利用分类网络提取到特征提取层的最后一层的高层语义信息F,,H、W、C分别是图像的高度、宽度、深度;对于每一个维度的特征图,,采用一个的卷积核去依次获取每个位置和他周围位置的信息以生成该位置的重要性程度权重。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210023 江苏省南京市栖霞区文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励