中国人民解放军国防科技大学王林获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国人民解放军国防科技大学申请的专利一种融合图像特征的交互多模型红外时敏目标跟踪方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119477980B 。
龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411560204.0,技术领域涉及:G06T7/246;该发明授权一种融合图像特征的交互多模型红外时敏目标跟踪方法是由王林;宋东阳;王泽锋;刘亚晴;马峰;易博凯;阮勇;杨林永;王蒙;熊峰;周智越设计研发完成,并于2024-11-04向国家知识产权局提交的专利申请。
本一种融合图像特征的交互多模型红外时敏目标跟踪方法在说明书摘要公布了:本发明针对空地场景下的红外目标跟踪中机载相机受空中气流影响而产生的刚性运动和地面目标的强机动性导致地面目标运动状态难以确定的难题,发明了一种融合图像特征的交互多模型红外时敏目标跟踪方法。本发明在卡尔曼滤波的框架下,以目标检测结果作为状态观测器,引入帧间配准来补偿机载平台晃动导致坐标系变换带来的误差,以交互式多模型来表征地面运动目标的强机动性,最后通过数据关联对运动目标进行准确跟踪。本发明提出的跟踪方法复杂度低,能够很好的适应空地成像的复杂环境,跟踪精度不受目标检测结果精度的影响,具有重要的工程意义。
本发明授权一种融合图像特征的交互多模型红外时敏目标跟踪方法在权利要求书中公布了:1.一种融合图像特征的交互多模型红外时敏目标跟踪方法,其特征在于,包括如下步骤: 1创建状态观测模型:当机载平台的跟踪相机捕捉到地面运动目标时,通过目标检测算法,得到运动目标在图像中的像素位置,并以目标检测结果作为跟踪系统的状态观测模型; 2创建图像中目标的状态量,包括以下步骤: 2.1输入图像:包括第k-1帧图像和第k帧图像,k=2,3,...,n为序列编号; 2.2建立目标状态量:对第k-1帧图像和第k帧图像进行目标检测,分别得到第k-1帧图像、第k帧图像的目标框集合Sk-1和Sk,建立目标状态向量为 其中,xk和yk分别是指目标k时刻沿图像横向和纵向位置坐标,和分别是k时刻沿图像横向和纵向的像素运动速度,和分别是k时刻沿图像横向和纵向像素运动的加速度;其中,由于帧间图像序列为离散化的,以坐标的差分量计算速度,以速度的差分量计算加速度,具体计算公式为 其中,xk-1和yk-1分别是目标k-1时刻的沿图像横向和纵向位置坐标,和分别是k-1时刻沿图像横向和纵向的像素运动速度;其中,起始状态量的构建需要利用第1帧和第2帧图像,从第3帧图像开始状态量的计算均利用当前帧图像和前一帧图像进行计算; 3构建交互多模型卡尔曼滤波模型并在线估计目标的状态量,根据步骤2中建立的目标状态量,对下一帧图像中的目标状态量进行预测; 3.1构建交互多模型卡尔曼滤波模型集 将目标可能的运动模式映射为卡尔曼滤波模型集,模型集中的各个模型代表着不同的运动模式;假设交互多模型滤波包含r个不同的卡尔曼滤波模型,确定其模型通式为: Xjk+1=FjkXjk+GjkWjk1 Zk=HjkXjk+Vjk2 其中,公式1代表第j个运动模型状态方程,公式2代表第j个运动模型量测方程,Xjk为k时刻状态向量,Fjk为k时刻状态转移矩阵,Gjk为k时刻噪声驱动矩阵,Wjk为k时刻系统噪声,Vjk为k时刻观测噪声,Hjk为k时刻观测矩阵,Zk为k时刻观测量;j=1,2...,r为模型序号,将Wjk的系统噪声协方差阵表示为Qjk,将Vjk的观测噪声协方差阵表示为Rjk; 根据地面运动目标的实际运动情况,将地面运动目标的运动模式设置为目标匀速直线运动、目标匀加速直线运动,进一步确定两种运动模式下的状态方程; 目标匀速直线运动的状态方程为: 目标匀加速直线运动的状态方程为: 其中,式中,xk、yk分别为k时刻目标在视场中的横坐标和纵坐标,分别为k时刻目标横向速度和纵向速度,分别为k时刻目标横向加速度和纵向加速度;xk+1、yk+1分别为k+1时刻目标在视场中的横坐标和纵坐标,分别为k+1时刻目标横向速度和纵向速度,分别为k+1时刻目标横向加速度和纵向加速度;T为采样时间间隔,ωjk为模型噪声,建模为白噪声; 模型集中设计有n1个匀速直线运动方程,n2个匀加速直线运动方程,满足n1+n2=r,每个运动方程对应不同的Qj和Rj; 3.2将目标的匀速直线运动和匀加速直线运动模型构成机动目标滤波模型,共有r个卡尔曼滤波模型,根据步骤2中构建的目标状态量,利用运动模型参数Q1,Q2,Q3...Qr、R1,R2,R3...Rr并结合各个模型对应的权重因子进行输入交互,得到各个目标状态量的估计值; 4通过帧间配准计算帧间图像的仿射变换矩阵,并对步骤3中目标状态量的估计值进行修正,包括以下步骤: 4.1分别对前一帧图像和当前帧图像根据图像特征提取图像中的关键点,将其生成的描述子放入两个集合T1和T2中;并对于两个集合中的描述子计算欧式距离来表征其相似性,进行关键点匹配,经过关键点提纯后根据其对应关系求出两幅图像间的仿射变换矩阵; 4.2根据仿射变换矩阵将预测边界框从前一帧图像的坐标系变换到当前帧图像的坐标系中,补偿相机运动对目标的预测位置产生的影响; 4.3对步骤3中状态量的估计值通过帧间配准得到的仿射变换矩阵修正,将估计值变换到当前图像所对应的坐标系中,作为新的状态估计量; 5对当前帧图像进行状态观测,即进行目标检测,得到状态观测量;将得到的状态观测量和步骤4中得到的新的状态估计量进行数据关联,使状态观测量和状态估计量进行初步匹配,根据匹配的结果将目标分为匹配的目标和未匹配的目标,将未匹配的目标分为未匹配的预测框、未匹配的检测框,进而针对不同情况对不同组合的目标进行如下分类操作: 5.1对于未匹配的预测框,若它不在图像边缘,则认为是未被遮挡目标,仍然保留此跟踪框,但对它的观测噪声Rj整体放大3倍;若它在图像边缘,则认为目标移动出视场,直接删除此预测框,后续的跟踪过程中不再考虑; 5.2对于未匹配的检测框,视为目标出现,给它分配新的ID,并为它创建一个新的卡尔曼滤波器,参与之后的跟踪过程; 5.3对于正确匹配的目标,继续保留其ID,继续进行跟踪; 6利用状态估计量和状态观测量进行信息融合并更新跟踪系统中的各个参数,具体包括以下几个步骤: 6.1混合模型修正,对模型进行卡尔曼滤波,输入量分别为k-1时刻模型初始状态X0jk-1|k-1,k-1时刻模型的协方差P0jk-1|k-1,k时刻的观测状态量Zk;确定k时刻的预测状态和预测的协方差为 其中,Fjk∣k-1为k-1时刻到k时刻第j个运动模型的状态转移矩阵,Gjk∣k-1为k-1时刻到k时刻第j个运动模型的噪声驱动矩阵,Wjk-1为k-1时刻系统噪声,将Wjk-1的系统噪声协方差阵表示为Qjk-1; 将模型转换矩阵表示为 其中,pij表示第i个运动模型到第j个运动模型的模型转移概率,1≤i≤r,1≤j≤r; 将k-1时刻的模型转移概率μijk-1|k-1表示为 r为模型集中的模型总数,μik-1为k-1时刻第i个模型对应的概率; 确定测量误差的协方差矩阵计算Sjk为: 其中,Rjk为观测方程中Vjk的观测噪声协方差阵; 确定卡尔曼增益Kjk为: 确定经过滤波后k时刻的状态量和协方差为: 6.2更新各个模型的概率;模型的更新会直接影响算法的精度,采用极大似然函数法来对模型进行更新,通过计算当前模型和当前运动状态的相似度来确定模型权重;在k时刻与模型j最匹配的极大似然函数Λjk为 其中, 则得到模型j的更新概率μjk为 其中c为归一化常数,即 6.3输出交互:输出信息融合后的结果并更新各个模型的概率;确定k时刻模型输出融合后的状态量和融合后的协方差Pk|k,为 以信息融合后的目标状态量作为当前帧图像的目标跟踪结果; 7当相机拍摄到下一帧图像后,重复上述步骤2到步骤6,持续获得目标的运动位置,实现空地时敏红外目标跟踪。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军国防科技大学,其通讯地址为:410073 湖南省长沙市开福区德雅路109号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励