天津大学王松获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉天津大学申请的专利多对象场景无接触交互检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115880601B 。
龙图腾网通过国家知识产权局官网在2026-04-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210861781.8,技术领域涉及:G06V20/40;该发明授权多对象场景无接触交互检测方法是由王松;李嘉诚;韩瑞泽;冯伟;王松淼设计研发完成,并于2022-07-22向国家知识产权局提交的专利申请。
本多对象场景无接触交互检测方法在说明书摘要公布了:本发明属于计算机视觉领域,为提出一种非接触式交互类别与交互主体识别技术,主要解决多人场景中交互个体未相互接触,且存在其他未交互个体的情况下,交互个体及交互动作的识别问题。为此,本发明采取的技术方案是,多对象场景无接触交互检测方法,利用关系对嵌入网络PRE‑Net,通过聚合场景中的个体以及群体信息、短期以及长期信息得到关系对,通过计算交互关系矩阵、计算个体交互类别向量、计算全局交互类别向量,从而进行交互预测和识别。本发明主要应用于多人场景中交互个体未相互接触,且存在其他未交互个体的情况下,交互个体及交互动作的识别场合。
本发明授权多对象场景无接触交互检测方法在权利要求书中公布了:1.一种多对象场景无接触交互检测方法,其特征是,利用关系对嵌入网络PRE-Net,通过聚合场景中的个体以及群体信息、短期以及长期信息得到关系对,通过计算交互关系矩阵、计算个体交互类别向量、计算全局交互类别向量,从而进行交互预测和识别,具体步骤如下: 步骤S1:个体信息提取 a短期视频段分割 对于一输入视频序列,将其分割成个等长的视频片段,对每个视频片段进行短间隔的采样,得到个视频帧,对于具有个片段的视频序列,最终得到个视频帧; b空间信息提取 对于第帧的第个个体,将其2D位置向量表示为: ; 计算运动方向向量: ; 在视频段中的个视频帧中使用单层GRU整合相同个体的位置信息,对于帧上的个体计算其位置信息: ; 最终得到每个个体的空间特征; c外观特征提取 使用非对称卷积网络Inception-v3在每个边界框内提取多尺度的特征信息,使用感兴趣区域特征提取RoIAlign将提取的特征调整为相同大小,使用核尺寸为3×1×1的多个3D卷积层聚合时间信息,最终使用全连接层得到每个个体的外观体征; 步骤S2:个体对关系立方体计算 a关系图节点表示 通过连接外观体征与空间特征计算场景中所有个个体的节点特征向量为: ; b关系图边表示 计算节点即个体、间的边特征为: ; 将场景中所有个体间个边特征合并为个体对关系立方体; c长期特征聚合 使用单层双向GRU将视频片段的关系立方体的短期特征聚合成长期特征: ; 其中,,为整个视频的片段数; 步骤S3:交互预测 a计算交互关系矩阵 将长期特征矩阵使用双层全连接层在通道维度进行压缩,得到矩阵,将矩阵展平成一维向量: ; 对向量进行softmax函数操作,并转换成原始矩阵的形式,得到交互关系矩阵: ; b计算个体交互类别向量 对于矩阵,在维度逐个取其最大值以进行压缩: ; 将输入全连接层,并进行softmax操作得到个体交互类别向量: ; c计算全局交互类别向量 对于矩阵,在维度逐个取其最大值以进行压缩: ; 将输入全连接层,并进行softmax操作得到全局交互类别向量: ; 进行交互预测和识别。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人天津大学,其通讯地址为:300072 天津市南开区卫津路92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励