Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 东南大学杨鹏获国家专利权

东南大学杨鹏获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉东南大学申请的专利一种问题驱动的社交网络答案摘要自动生成方法与装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114048309B

龙图腾网通过国家知识产权局官网在2025-09-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111365252.0,技术领域涉及:G06N5/04;该发明授权一种问题驱动的社交网络答案摘要自动生成方法与装置是由杨鹏;李冰;陈维威;于晓潭设计研发完成,并于2021-11-17向国家知识产权局提交的专利申请。

一种问题驱动的社交网络答案摘要自动生成方法与装置在说明书摘要公布了:本发明公开了一种问题驱动的社交网络答案摘要自动生成方法,所述方法包括以下步骤:步骤1:社交网络文本采集;步骤2:数据预处理;步骤3:模型训练;步骤4:模型测试与文本生成,本发明能够改善传统摘要生成方法中过度依赖语义关联性而导致泛化能力低和缺乏可推理性等问题,进而提升生成摘要的可读性、流畅性和简洁性。

本发明授权一种问题驱动的社交网络答案摘要自动生成方法与装置在权利要求书中公布了:1.一种问题驱动的社交网络答案摘要自动生成方法,其特征在于,所述方法包括以下步骤: 步骤1:社交网络文本采集; 步骤2:数据预处理; 步骤3:模型训练; 步骤4:模型测试与文本生成; 其中,步骤3:模型训练,利用步骤2处理后的数据集对问题驱动下的分层滑动推理生成器进行训练,该步骤的实施分为以下子步骤: 子步骤3-1,构建数据层,将三元组利用预训练的Glove对问题和答案中的每个单词序列转化为词向量表示,构建50k的词汇表,并分别得到映射后的问题词向量序列Eq,答案词向量序列Ea,其中答案中的句子级别的词向量序列为 子步骤3-2,构建文本编码层,采用一个双层Bi-LSTM循环神经网络编码器分别对问题词向量序列Eq和答案词向量序列Ea进行语义编码提取,得到学习后的上下文语义表示: Hq=Bi-LSTMEq 同时得到为整个答案的整体语义表示,其中[,]表示连接操作; 子步骤3-3,构建推理层,推理层包含两大步骤,分别为分层滑动融合机制和cross-attention机制,首先利用分层滑动融合机制将答案中的每个句子融合为小节的形式,具体的做法如下: 对答案中相邻的k个句子进行融合操作,并再次通过Bi-LSTM编码器进行小节的上下文信息表示,得到相邻k个句子的语义表示,此时整个答案的语义表示为 接着对上述融合后的语义表示通过cross-attention机制: headi=AttentionQ,K,VWi V MultiHeadQ,K,V=[head1,…,headh]WO 其中Wi O、Wi k、Wi V、WO为可学习参数,然后利用multi-headattention机制分别对问题和答案进行权值计算:对于问题中的信息,主要计算问题和答案中的每个句子的权值,并通过池化层得到在答案中单个句子的影响下的被分配了权重的问题的上下文语义表示: 对于答案中的句子信息,为了学习句子中单词的依存关系,捕捉句子的内部结构,首先对融合k个句子之后的小节语义表示利用self-attention机制找出句子内部的关键信息所在位置; 在突出字级别的语义表示的基础上,利用multi-headattention机制计算k级融合句子与问题之间的关系,获得在问题的影响下被分配了权重的k级融合后的答案句子的上下文语义表示 最后,将k级融合句子表示执行平均池化层,获得最后在问题影响下的句子级别的答案表示,这可以应用在解码阶段取评估答案中每个句子的重要程度, 子步骤3-4,构建生成层,主要通过设计一种双驱动的选择生成器,将问题和答案都加入到复制池中,进而进行后续生成和复制摘要中的单词的操作,具体实施如下: 首先,对编码后的答案语义上下文表示利用单词LSTM进行解码,在解码的原始时间戳和最后时间戳,输入向量分别为SOS和EOS的单词嵌入式表示,在解码的t时刻,采用Curriculum学习的方式进行训练,即利用随机概率p去选择当前解码时间戳的输入为真实输出yt或者为上一时间戳的解码输出wt,解码当前时刻的隐含层的输出st: st=LSTMst-1,yt-1 问题与答案中每个单词的注意力分布与的计算如下,主要为问题和答案关键信息的概率分布,即告诉解码器在哪里寻找下一个生成的单词: 其中,Wq、Wa、bq、ba为可学习参数; 然后,将在推理层所得到的单词级别的问题与答案的语义表示与当前解码时刻所得到的隐含层语义表示st计算句子级别的注意力权重和并通过二次加权单词级别的单词概率分布,获得加权后的源文本的单词概率分布: 其中,WF、WD、bq、bs为可学习参数,i|u和j|u表示整个句子u所包含的对应单词i,j,dk为整个解码的总步数,σ为sigmoid激活函数, 通过上述二次加权后所得到的注意力分布计算最后的上下文向量,并生成整个词汇表的概率分布Pvocab: 当前解码时刻t的最后预测单词ωt在词汇表中的概率分布Pωt=Pvocabωt,设计了一种双驱动下的指针生成网络,将问题添加到复制池中,增加复制池原始单词的容量: 其中,Wc和bc属于可学习参数,通过概率pgen去选择最后生成的单词是从词汇表中寻找还是从问题或者答案中进行复制,类似于门控机制,控制最后生成的单词的流向, 子步骤3-5,联合训练损失,采用随机初始化的方式对所有的参数进行初始化,采用AdaGrad优化器进行梯度反向传播更新模型参数,初始学习率设置为0.15,初始累加器值为0.1,并使用最大梯度范数为1的梯度进行剪切,生成的摘要控制在100个单词以内,当训练损失不再下降或训练轮数超过32轮,模型训练结束,并保存在验证集上表现最好的模型。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:211135 江苏省南京市麒麟科创园智识路26号启迪城立业园04幢;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。