Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 同济大学翟鹏珺获国家专利权

同济大学翟鹏珺获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉同济大学申请的专利一种新闻视频描述自动生成方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115408563B

龙图腾网通过国家知识产权局官网在2025-08-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210990725.4,技术领域涉及:G06F16/783;该发明授权一种新闻视频描述自动生成方法是由翟鹏珺;方钰;原齐阳设计研发完成,并于2022-08-18向国家知识产权局提交的专利申请。

一种新闻视频描述自动生成方法在说明书摘要公布了:一种新闻视频描述自动生成方法,可以对一个附加了文本的新闻视频产生蕴含实体信息的准确描述。目前的新闻视频描述方法均基于一段式的生成模型,且未对冗余的上下文语句进行筛选,造成生成描述不准确。本发明的创新点在于首先利用视频对附加文本进行筛选,之后利用一个基于模板生成和实体插入的两段式生成方法生成新闻视频描述,其中,在模板生成部分聚焦于事件的内容,在实体插入部分聚焦于事件的参与者等实体信息,有效地提升了新闻视频描述的准确率。

本发明授权一种新闻视频描述自动生成方法在权利要求书中公布了:1.一种新闻视频描述自动生成方法,其特征在于,包括: 步骤1、利用语句排序器对附加文本的每个语句排序; 步骤2、对步骤1得到的排序语句进行命名实体识别,得到排序语句模板和排序实体列表; 步骤3、利用视频数据和步骤2得到的排序语句模板生成目标视频的描述模板; 步骤4、利用步骤2生成的排序实体列表对步骤3生成的描述模板进行实体插入得到最终的新闻视频描述; 其中, 步骤1:利用语句排序器对附加文本的每个语句排序 1.1:利用ResNet-50和I3D模型对视频进行特征提取得到视频的动态和外观特征,之后利用LSTM拼接得到包含时序信息的视频特征向量,提供给步骤1.3; 1.2:利用BERT对附加文本的每个语句进行特征提取得到中间文本特征,提供给步骤1.3; 1.3:训练语句排序器 语句排序器的输入为视频特征和文本特征,输出二者的相似度; 利用注意力机制定义聚合操作如下:,其中,将中间文本特征向量进行聚合得到中间文本聚合向量,同样的,对视频向量进行聚合,得到视觉聚合向量;其中,与分别为文本和视频的聚合参数;定义视频与语句的相似度如下:;以上下文语句与视频真实描述对应的ROUGE指标值作为目标值,通过最小化二者的交叉熵损失来训练模型; 1.4:利用训练好的语句排序器得到附加文本的每个语句与视频的相似度,依据此相似度进行排序,得到排序语句,提供给步骤2.1和2.2; 步骤3:利用视频数据和步骤2得到的排序语句模板生成目标视频的描述模板 3.1:拼接排名前20的排序语句模板,并向量化得到最终的文本特征向量; 3.2:训练模板生成器 模板生成器的输入是视频和文本特征向量,输出是目标新闻视频的描述模板; 模板生成器基于M层的transformer,序列化的产生视频的描述;在时刻t,接受之前时刻产生的词汇以及特征向量 , ,产生隐状态序列,其中,为对应的嵌入向量,具体过程为: 利用的最后一个维度的元素,经过线性映射和softmax操作后,得到当前时刻的单词输出;DecoderLayer基于注意力机制实现;对于一组查询Q、键向量K和值向量V,注意力机制根据查询Q和键K向量之间的相似度对值向量V进行加权求和;表示如下: 多头注意力MA由H个注意力层组成: 对于第L层的Decoderlayer,首先利用自注意力机制得到; 之后分别对文本和视频特征进行MA操作,得到与,其中,,将二者拼接并经过线性层,得到,被用作下一个的输入;给定视频V,上下文C,以及真实描述S,使用交叉熵损失作为训练的目标函数损失函数为: 3.3:利用训练好的模板生成器生成目标视频的带有实体类别占位符的描述模板,提供给步骤4。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。