南京理工大学李安琦获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利基于SLAM和图像处理的裂缝检测及其三维定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116188417B 。
龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310135012.4,技术领域涉及:G06T7/00;该发明授权基于SLAM和图像处理的裂缝检测及其三维定位方法是由李安琦;维克多;郭玲设计研发完成,并于2023-02-19向国家知识产权局提交的专利申请。
本基于SLAM和图像处理的裂缝检测及其三维定位方法在说明书摘要公布了:本发明公开了一种基于SLAM和图像处理的裂缝检测及其三维定位方法,包括:使用移动机器人实时采集路面图像,传输至上位机的图像处理系统中,完成路面裂缝的检测和裂缝长度的量化;改进SLAM框架的视觉特征提取方式,融合深度相机KinectV2和惯性测量单元的数据,并通过紧耦合的方式融合并加入视觉SLAM框架,完成移动机器人的位姿估计;对机器人运动过程中采集的连续帧图像按规则提取关键帧,结合彩色相机和深度相机的图像以及SLAM后端位姿估计,得到裂缝周围环境的位置信息,通过点云库和视觉位姿信息结合,得到裂缝周围环境的稠密点云图。本方法可以实时地监测裂缝信息并定位,且具有较高准确率和较强的鲁棒性。
本发明授权基于SLAM和图像处理的裂缝检测及其三维定位方法在权利要求书中公布了:1.一种基于SLAM和图像处理的裂缝检测及其三维定位方法,其特征在于,包括以下步骤: S1,移动机器人搭载深度相机实时采集路面图像,通过上位机的图像处理系统检测彩色图像中的裂缝信息; S2,在视觉传感器的基础上融合惯性测量单元,通过边缘化的紧耦合方式融合两者数据,输入SLAM算法框架并完成机器人的位姿估计;具体包括: S2-1,分别标定相机和惯性测量单元并对两者联合标定,得到两者间的转换矩阵; S2-2,对惯性测量单元进行建模,并根据建模结果对惯性测量单元进行预积分处理;再将视觉相机与惯性测量单元联合初始化,即陀螺仪偏置和重力加速度进行初始化; S2-3,通过基于滑动窗口的边缘优化方式紧耦合惯性传感器信息和视觉信息,计算视觉重投影误差和惯性测量单元观测残差,合并到滑动窗口中,根据优化向量建立非线性优化模型并估计位姿; 惯性测量单元运动学模型如式5-7: 其中,p,v,q表示对应时刻下的系统位置、速度和旋转信息;a,g表示加速度与重力加速度;b表示偏置量,Δt表示时间间隔; 所述预积分处理如式8-10: 其中,i,i+1表示相邻两帧关键帧,Ri,vi,pi表示第i个关键帧的相对旋转矩阵,速度和平移量; 所述观测残差和所述重投影误差如式11-12: 其中,表示惯性测量单元的观测残差,χ为待优化的变量,代表两个关键帧内的陀螺仪和加速度计零偏的IMU预积分值;表示位移变化量误差,表示速度变化误差,表示角度变化误差;表示系统的视觉重投影误差,表示被观测到的第l个特征点,表示通过相机内参由像素位置到单位向量的反投影; 所述非线性优化模型为: 其中,||rp-Hpχ||2表示边缘化残差,表示视觉重投影误差,表示IMU残差,ρ为鲁棒核函数,χ表示滑动窗口中的优化状态向量,B表示惯性测量集合,k表示第k个图像,Hp表示包含先验信息的Hessian矩阵,γ表示需进行优化的雅可比矩阵; S3,改进视觉SLAM中特征提取的方式,判断实时采集的每帧图像并筛选出关键帧,输入图像处理系统提取裂缝信息; SLAM的特征提取方式为:提取图像上的ORB特征角点,并使用Beblid描述子对特征点进行匹配;进行关键帧筛选时需满足以下条件之一:1与上次全局重定位之间间隔至少20帧;2当前关键帧需跟踪至少50个地图点;3当前关键帧跟踪到的特征点包含上一关键帧的特征点需小于80%; S4,将步骤S3提取的裂缝信息与深度相机数据融合,通过空间矩阵转换,构建含有裂缝信息的稠密点云地图,实现裂缝的三维定位。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励