南京航空航天大学崔海华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京航空航天大学申请的专利一种融合深度学习的双目惯导SLAM定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119417899B 。
龙图腾网通过国家知识产权局官网在2025-10-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411482921.6,技术领域涉及:G06T7/73;该发明授权一种融合深度学习的双目惯导SLAM定位方法是由崔海华;顾施濠;田威;廖敏捷;彭凯;张祥;郝惠朴设计研发完成,并于2024-10-23向国家知识产权局提交的专利申请。
本一种融合深度学习的双目惯导SLAM定位方法在说明书摘要公布了:本发明提供了一种融合深度学习的双目惯导SLAM定位方法,具体包括:系统接收双目相机的图像与IMU数据,利用Superpoint网络提取图像特征点和特征描述子;通过前后帧与左右目图像进行特征匹配与三维重建,通过YoloV8‑seg网络检测动态对象进行动态点剔除;基于IMU预积分计算相机位姿,利用滑动窗口机制筛选关键帧并进行BA优化,完成双目惯导初始化;对特征描述子二进制编码训练DBoW3词袋模型进行回环检测;并应用LightGlue网络匹配当前关键帧与候选关键帧,通过RANSAC优化匹配结果进行位姿图优化。本发明提出的方法能有效提高SLAM前端在光线昏暗、弱纹理环境下的鲁棒性,减少动态场景干扰的同时,提高了位姿图优化的准确性,保证实时定位的高精度和稳定性。
本发明授权一种融合深度学习的双目惯导SLAM定位方法在权利要求书中公布了:1.一种融合深度学习的双目惯导SLAM定位方法,其特征在于,具体包括: S1、通过双目相机接收视频流逐帧图像并进行预处理和图像分析,同时接收惯导信息; S2、SLAM系统前端通过Superpoint网络提取图像的特征点及特征描述子;所述特征点作为点集输入YoloV8-seg网络进行动态点剔除;所述特征描述子进行二进制编码以训练DBoW3词袋模型; S3、使用YoloV8-seg网络进行对图像的目标检测和动静分类;包括: 获取动态对象的检测框并对框内图像进行语义分割,获取动态对象所在区域的坐标点集合;判断特征点是否在动态对象检测框中,对框内特征点坐标逐一与动态区域的坐标进行比对,将动态目标Mask,即掩码M周围2个像素内的特征点标记为动态点并剔除;筛选后的点集,以左目图像为基准进行前后两帧特征点正反光流跟踪,计算相机位姿变化;左右目图像进行正反光流匹配,进行特征点三维重建; S4、获取前一帧与当前图像帧之间的IMU数据,包括IMU传感器的加速度计和陀螺仪的测量数据,即加速度和角速度;用当前帧的IMU加速度取均值,对齐重力,得到IMU初始姿态;获取前一帧图像位姿,作用这段时间内的IMU预积分结果,得到当前帧的初始位姿; S5、从普通图像帧中筛选出关键帧填满滑动窗口,利用滑动窗口机制进行BA优化,完成双目惯导初始化; S6、将提取到的特征描述子进行二进制编码,以训练DBoW3词袋模型,构建回环检测的离线词典;对关键帧进行回环检测,使用离线词典对每一个新来的关键帧进行特征统计,搜索与当前关键帧对应的候选关键帧; S7、应用LightGlue网络对当前关键帧的特征点与候选关键帧的特征点进行匹配,使用RANSAC算法对特征匹配结果进行优化并采用PnP方法计算当前关键帧与候选关键帧之间的相对姿态,存储候选对象帧索引与相对位姿,作为附加约束添加到位姿图中,进行位姿优化。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京航空航天大学,其通讯地址为:210016 江苏省南京市秦淮区御道街29号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励