北京理工大学甘明刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学申请的专利一种工业场景数据集下的图卷积视觉关系检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116740021B 。
龙图腾网通过国家知识产权局官网在2026-03-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310704231.X,技术领域涉及:G06T7/00;该发明授权一种工业场景数据集下的图卷积视觉关系检测方法是由甘明刚;朱轶兵;陈杰;王钢;夏明月;张少卿;马千兆设计研发完成,并于2023-06-14向国家知识产权局提交的专利申请。
本一种工业场景数据集下的图卷积视觉关系检测方法在说明书摘要公布了:本发明提供了一种工业场景数据集下的图卷积视觉关系检测方法,针对视觉关系检测技术在真实的工业场景数据集下缺少应用的问题,建立一个工业场景下的视觉关系检测数据集;整个数据集的构建过程包括相关主题的定义、相关照片的搜集、识别的物体和关系类别的初步筛查、物体和关系的标注、物体和关系类别的最终确定;而针对将具有异构性的图卷积网络引入视觉关系检测领域不充分的问题,设计了一个基于K‑最邻近图和自适应滤波的视觉关系检测模型;K‑最邻近图用于建立谓词节点的邻接矩阵,自适应滤波的结构采用改进的图卷积形式进行;总体而言,建立一个新的工业场景数据集并设计了一个考虑异构性图卷积的视觉关系检测方法。
本发明授权一种工业场景数据集下的图卷积视觉关系检测方法在权利要求书中公布了:1.一种工业场景下的图卷积视觉关系检测方法,其特征在于,包括以下步骤: 步骤1:根据工业场景的定义,进行工业场景图片的搜集; 步骤2、考虑异构性图卷积的视觉关系检测方法,具体包括: 步骤2.1、特征编码 首先使用FasterR-CNN对输入的一张图片进行目标检测,得到物体集合,及其视觉特征和空间特征,其中,表示检测到的物体数量;和分别表示检测到的第个物体的矩形边界框和标签;根据,经过Glove词向量得到语义词嵌入特征;将实体的视觉、空间和语义词嵌入特征按照物体进行拼接,得到三类特征拼接形式; 将物体集合中的不同元素进行配对,得到配对的物体集合以及配对的特征集合;对于任意一对和,根据向量拼接操作得到,得到集合,其中;由此得到谓词的特征集合; 步骤2.2、基于K-最邻近图的连接 已知集合中的各个元素,获得相似度矩阵;其中矩阵中元素计算方式为: 3 其中,;; 对于矩阵的每一行元素,将其中数值最大的前K个置为1,其余置为0,按上述方法遍历矩阵的每一行,从而得到邻接矩阵;K为设定值; 步骤2.3、自适应的消息聚合 根据集合,得到具有个元素按行拼接组成的矩阵,的第行;取; 将矩阵输入到图卷积结构中,在第层图卷积中,使用高低通自适应选择的滤波结构: 5 其中为第层图卷积中线性的可学习参数,、和定义为: 6 其中,;表示图卷积过程;表示多层感知机;为可学习参数组成的矩阵,为哈达玛积;、和为线性的可学习参数; 以如下方式更新: 7 经过最多层的图卷积结构后,得到优化后的; 步骤2.4、视觉关系预测结果 根据的每一行,得到一个谓词的分类结果; 步骤2.5、模型训练 首先采用采集的工业场景图片中的物体标签训练FasterR-CNN网络; 然后,固定FasterR-CNN中的参数;利用谓词的分类结果以及给定的谓词标签,构建损失函数对图卷积结构的可学习参数进行训练; 步骤3、对于待检测的图片,采用步骤2.1至2.3的方法获得矩阵后,输入到训练好的图卷积结构中,得到优化后的;根据的每一行,得到一个谓词的分类结果,由此得到个结果,组成集合的形式为:;根据集合,将集合中每一对物体中两个物体分别定义为主体和客体,获得主体客体集合,将谓词和对应的主体客体组合可以得到视觉关系,从而完成视觉关系预测; 所述步骤2.2中,K的选择方式为:
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励