中国人民解放军国防科技大学智帅峰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国人民解放军国防科技大学申请的专利基于数据驱动的视觉位姿估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121353412B 。
龙图腾网通过国家知识产权局官网在2026-03-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511901474.8,技术领域涉及:G06T7/73;该发明授权基于数据驱动的视觉位姿估计方法是由智帅峰;宋明涛;牛琦;张新禹;夏靖远设计研发完成,并于2025-12-16向国家知识产权局提交的专利申请。
本基于数据驱动的视觉位姿估计方法在说明书摘要公布了:本申请涉及一种基于数据驱动的视觉位姿估计方法。所述方法包括:构建视觉位姿估计模型,高效特征提取与匹配模块通过轻量化网络提取输入图像的多层级深度特征,经局部聚合、下采样后跨视角匹配生成稠密匹配点对集合。两阶段层级位姿估计模块通过多视几何解算与深度回归结果加权融合生成粗位姿,以粗位姿为先验计算几何残差和置信度得分,得到位姿中间结果。可微先验引导RANSAC优化模块据此构建采样概率分布,生成软加权系数并估计几何模型,输出初步优化位姿。构建联合损失函数,迭代更新模型参数,利用训练好的模型输出最终相机相对位姿。采用本方法能够在保持几何可解释性的同时显著提升估计精度与运算效率。
本发明授权基于数据驱动的视觉位姿估计方法在权利要求书中公布了:1.一种基于数据驱动的视觉位姿估计方法,其特征在于,所述方法包括: 获取两幅具有部分重叠视场的输入图像,构建视觉位姿估计模型;所述视觉位姿估计模型包括高效特征提取与匹配模块、两阶段层级位姿估计模块和可微先验引导RANSAC优化模块; 在所述高效特征提取与匹配模块根据轻量化特征提取网络对素数输入图像进行特征提取,生成多层级深度特征,对所述多层级深度特征经局部聚合与下采样处理后通过跨视角特征匹配生成稠密匹配点对集合; 在所述两阶段层级位姿估计模块根据双阶段层级位姿估计方法在第一阶段对所述稠密匹配点对集合通过多视几何关系解算与深度回归网络预测的结果加权融合,生成粗位姿,在第二阶段以粗位姿为先验信息,计算匹配点对的几何残差并生成置信度得分,得到优化后的位姿中间结果; 在所述可微先验引导RANSAC优化模块根据置信度得分与位姿中间结果构建匹配点对的采样概率分布,通过可微采样方法生成软加权系数,基于软加权系数对几何模型进行估计,输出初步优化的相机相对位姿; 构建包含特征匹配误差、旋转参数误差与平移参数误差的联合损失函数,根据所述联合损失函数对视觉位姿估计模型的参数进行迭代更新,利用训练好的视觉位姿估计模型输出最终相机相对位姿; 在第一阶段对所述稠密匹配点对集合通过多视几何关系解算与深度回归网络预测的结果加权融合,生成粗位姿,包括: 基于稠密匹配点对集合通过多视几何关系计算本质矩阵,并采用五点法或SVD分解得到初始位姿; 采用深度回归网络学习稠密匹配点对集合中特征图之间的隐式对应关系生成回归位姿; 通过可学习参数对初始位姿和回归位姿进行加权融合生成粗位姿; 基于稠密匹配点对集合通过多视几何关系计算本质矩阵,并采用五点法或SVD分解得到初始位姿,包括: 基于稠密匹配点对集合通过多视几何关系计算本质矩阵,并采用五点法或SVD分解得到初始位姿为: 其中,表示初始平移向量,表示初始旋转矩阵; 在第二阶段以粗位姿为先验信息,计算匹配点对的几何残差并生成置信度得分,得到优化后的位姿中间结果,包括: 以粗位姿为先验信息,计算匹配点对的几何残差为: 其中,表示匹配点对,表示第一幅图像中的特征点齐次坐标,表示本质矩阵,表示第二幅图像中与匹配的特征点齐次坐标,T表示转置运算。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军国防科技大学,其通讯地址为:410073 湖南省长沙市开福区德雅路109号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励