天津理工大学薛彦兵获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉天津理工大学申请的专利一种融合行人特性的在线更新策略行人单目标跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114067240B 。
龙图腾网通过国家知识产权局官网在2025-10-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111294661.6,技术领域涉及:G06V20/40;该发明授权一种融合行人特性的在线更新策略行人单目标跟踪方法是由薛彦兵;丁明远;袁立明;蔡靖;温显斌设计研发完成,并于2021-11-03向国家知识产权局提交的专利申请。
本一种融合行人特性的在线更新策略行人单目标跟踪方法在说明书摘要公布了:一种融合行人特性的在线更新策略行人单目标跟踪方法,在只给定初始帧目标状态下,将后续帧的行人目标跟踪问题分解为分类任务和回归任务,分类任务目的是通过分类滤波器将图像区域分类为前景和背景,以在图像中预测目标的粗略位置,回归任务是通过分类任务中得到的粗略定位结合候选边界框估计目标状态,通常由边界框表示;结合行人运动过程中的固有特性修正目标的粗略位置,以及根据当前场景的复杂性,在不同场景定义不同跟踪状态,对分类滤波器采取不同的在线更新策略增加分类器的判别能力,从而提升对行人单目标的跟踪性能,且其跟踪成功率更高,具有一定的实用价值。
本发明授权一种融合行人特性的在线更新策略行人单目标跟踪方法在权利要求书中公布了:1.一种融合行人特性的在线更新策略行人单目标跟踪方法,其特征在于它包括以下步骤: 第1步:跟踪过程中的分类任务: 1.1通过特征提取网络提取视频序列中参考帧和视频序列中的每一帧的特征,即:选取视频序列第一帧作为参考帧,并通过人工标注目标边界框的方式选中待跟踪目标,并在后续视频序列中的每一帧,即测试帧,对参考帧的所选取的待跟踪目标进行识别检测,从而实现视频序列中对待跟踪目标的进行跟踪,即可实现行人单目标跟踪过程; 1.2利用步骤1.1确定的当前所跟踪视频序列的参考帧信息,包括参考帧图像信息以及人工指定的目标标注边界框,对参考帧分别进行翻转、镜像、模糊及旋转数据增强操作,并得到具备各自操作效果的图像,将这些图像组成集合作为数据增强处理后的图像集,同时得到其数据增强后对应的标注边界框,然后通过模型预测器在线训练分类滤波器,用于后续帧区分待跟踪目标前背景,并预测目标位置; 1.3将当前所要跟踪序列中的后续帧作为测试帧,进行特征提取,即利用特征提取网络,对测试帧进行特征提取,得到测试帧的特征xtest; 1.4利用步骤1.2优化后的分类滤波器new_filter和步骤1.3得到的测试帧的特征进行卷积处理,如公式8所示: stest=xtest*fnew8 式中,stest为测试帧响应图;其中xtest代表测试帧的特征;*代表卷积计算;fnew为优化后的分类滤波器new_filter; 1.5根据步骤1.4得到的测试帧的响应图stest,判断当前测试帧的跟踪状态,跟踪状态分为为正常状态、不确定状态和找不到状态;其中,正常状态代表测试帧的场景简单,通过分类任务可以准确识别待跟踪目标和背景;不确定状态代表当前测试帧帧场景复杂,受到干扰物和背景影响,难以准确地识别待跟踪目标和背景;找不到状态代表当前测试帧场景复杂,受到遮挡或无法识别待跟踪目标和背景; 第2步骤:跟踪过程中的回归任务: 2.1根据步骤1.4的分类任务中得到的测试帧的响应图stest进行目标中心的位置预测; 2.2结合行人目标在运动过程中的固有特性,修正2.1步骤预测得到目标中心位置,得到最终预测的目标中心位置; 2.3根据步骤2.2得到的最终预测的目标中心位置和上一帧目标边界框,若当前帧为第二帧就将第一帧标注的目标边界框作为初始候选边界框,若为后续帧则将步骤2.4预测的边界框作为初始候选边界框,然后,基于该初始候选边界框,在步骤2.2得到的最终预测的目标中心位置周围,随机生成a个不同比例的候选边界框,从而构成初始候选边界框集;同时,基于步骤1.1中获取的人工标注的参考帧的目标边界框,将其作为参考候选边界框,并结合行人目标在运动过程中的固有特性,即行人目标在运动过程中尺度变化相对平缓的特性,在步骤2.2得到的最终预测的目标中心位置周围,随机生成b个不同比例的参考候选边界框,从而构成参考候选边界框集; 2.4将步骤2.3得到的a+b个可优化候选边界框集和步骤1.3得到的测试帧的特征送入边界框预测模块进行目标边界框预测; 2.5根据步骤1.5所判断的当前测试帧的跟踪状态更新分类滤波器new_filter,行人在运动过程中会出现遮挡、行人之间交错运动以及溶于背景的场景,通过判断当前目标的跟踪状态对分类滤波器new_filter进行优化更新,即可防止引入背景或者干扰物信息: 2.5.1当前测试帧的跟踪状态确定为正常跟踪状态时,每隔n帧或者遇到干扰物时对分类滤波器new_filter优化更新: i将由步骤2.4预测的边界框缩放在一个二维矩阵上,此时即可得到测试帧行人目标在二维矩阵中的目标位置c; ii计算测试帧的目标掩膜参数和标签 式中,t代表二维矩阵的每个位置,c代表目标位置;代表空间系数,是由训练时得到的;ρk是距离计算函数: iii计算测试帧响应图stest和测试帧标签之间的残差rs,c,即: rs,c=vc·mcs+1-mcmax0,s-yhn 此时,式2中,s为测试帧的响应图stest;vc为空间权重;mc为测试帧的目标掩膜参数yhn为测试帧的标签 iv按照步骤1.2.3中的步骤③的操作,得到测试帧响应图stest和测试帧标签之间的损失差,对分类滤波器new_filter进行优化更新,得到新的优化后的分类滤波器new_filter用于后续测试帧目标前背景分类; 对步骤iii得到的差值rs,c加入正则化,可得到Lf,即: 式中,为训练样本集合,其中,xj为经过特征提取网络提取的训练样本特征,cj为样本已经标注的目标中心坐标,即标注边界框的中心点坐标;*代表卷积计算;λ为正则化因子;f为优化分类滤波器; 将Lf作为测试帧响应图stest和测试帧标签之间损失进行反向传播,从而达到优化分类滤波器的目的; 2.5.2当前测试帧的跟踪状态确定为不确定状态时,不对分类滤波器new_filter优化更新; 2.5.3当前测试帧的跟踪状态确定为找不到状态时,不对分类滤波器new_filter优化更新; 2.6通过重复步骤1.3到步骤2.5完成整个所跟踪视频序列中每一帧目标识别检测,最终实现行人单目标跟踪。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人天津理工大学,其通讯地址为:300384 天津市西青区宾水西道391号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励