Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 河海大学王连涛获国家专利权

河海大学王连涛获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉河海大学申请的专利一种视频中的多车辆跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115359407B

龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211070668.4,技术领域涉及:G06T7/246;该发明授权一种视频中的多车辆跟踪方法是由王连涛;王钦旭设计研发完成,并于2022-09-02向国家知识产权局提交的专利申请。

一种视频中的多车辆跟踪方法在说明书摘要公布了:本发明公开了一种视频中的多车辆跟踪方法,包括构建车辆检测与自监督视觉表征学习相融合的深度神经网络模型,构造实例和维度双重对比的目标特征损失函数和目标检测损失函数,将网络模型在无身份标签的目标检测数据集下训练,构造添加占位符机制的视觉相似性关联方法;将待进行多车辆跟踪的视频数据逐帧转化为图像,依次传入训练好的神经网络进行车辆的目标检测和特征提取,对相邻两帧图像间的所有车辆特征进行关联匹配,遍历全部帧图像后得到检测区域内所有车辆的跟踪结果。本发明减少了额外计算开销,提高了模型计算速度,极大地降低了构建目标跟踪数据集的成本,避免车辆目标因暂时遮挡消失又重新出现导致的跟踪不稳定,使多车辆跟踪更加准确。

本发明授权一种视频中的多车辆跟踪方法在权利要求书中公布了:1.一种视频中的多车辆跟踪方法,其特征在于,包括如下步骤: 对采集的图像进行图像随机变换,形成数据增强算法集合 采用随机抽样的方法将图像数据集等分为若干个实例集Zi,每个实例集都有对应的标签集Ei,i∈{1,2,…T},T为实例集个数; 从数据增强算法集合中随机选取一种算法对每个实例Zi,Ei进行变换,获得样本集合Z′i,E′i; 根据样本集合构建车辆检测与自监督视觉表征学习相融合的深度神经网络模型的主干网络模型,成对提取两个样本集合Zi和Z'i的特征矩阵,记为hi和h'i; 根据样本集合的特征矩阵构建具有相同结构的分支网络,分别对特征矩阵hi和hi′进行预测,得到热力图Fi和F'i,中心偏移Oi和O'i,目标大小Si和S'i; 根据相同结构的分支网络构建车辆检测与自监督视觉表征学习相融合的深度神经网络模型的目标特征表征网络模型和投影层网络模型,两个特征矩阵hi和h'i通过目标特征表征网络得到目标特征表征Hi和H'i,目标特征表征Hi和H'i经投影得到目标特征矩阵,记为Li和L'i; 将目标特征矩阵Li和L'i分别沿行列向量划分,得到实例特征和维度特征,构建正、负实例特征对和相关、无关维度特征对; 通过余弦距离度量函数计算实例特征对间的特征关系,通过相关系数度量函数计算维度特征对间的特征关系,构造实例特征和维度特征双重对比损失函数作为目标特征损失函数; 利用高斯模型将标签Ei,E'i中真实边界框信息映射为热力图并计算标签目标中心点偏移量和目标大小 通过FocalLoss损失函数计算样本热力特征图Fi与F'i与之间的关系,通过损失函数计算样本中心点偏移量Oi与O'i与之间的关系和样本目标大小Si与S'i与之间的关系,根据计算的损失函数,构造目标检测损失函数,并与样本维度双重对比损失函数构成模型的目标检测与特征计算的总损失函数; 根据目标检测与特征计算的总损失函数对构建的车辆检测与自监督视觉表征学习相融合的深度神经网络模型进行训练; 视频数据集包含N帧图像,将第一帧图像I1送入经过训练的深度神经网络模型中,得到相应的中心点位置P1、边界框大小S1和目标的特征矩阵H1,初始化所有目标的身份信息和轨迹信息; 对连续两帧的图像的特征矩阵进行关联算法获得帧间目标的关联关系,对于同一目标进行轨迹更新,对新出现的目标为其初始化身份和轨迹; 深度神经网络模型遍历完所有帧图像后最终获得视频数据的跟踪结果

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河海大学,其通讯地址为:210024 江苏省南京市江宁区佛城西路8号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。