哈尔滨工业大学(深圳)杨志华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉哈尔滨工业大学(深圳)申请的专利动态场景下基于深度学习的视觉SLAM方法、系统及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115713633B 。
龙图腾网通过国家知识产权局官网在2025-08-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211433882.1,技术领域涉及:G06V10/46;该发明授权动态场景下基于深度学习的视觉SLAM方法、系统及存储介质是由杨志华;施杰;种竟争设计研发完成,并于2022-11-16向国家知识产权局提交的专利申请。
本动态场景下基于深度学习的视觉SLAM方法、系统及存储介质在说明书摘要公布了:本发明公开了一种动态场景下基于深度学习的视觉SLAM方法、系统及存储介质。方法包括:通过将MASKR‑CNN深度学习网络与传统的ORB‑SLAM2算法相结合,使用RGB‑D相机对室内环境进行图像采集,对采集到的RGB图像提取ORB特征点,同时将RGB图像输入MASKR‑CNN深度学习网络,检测出潜在运动物体,并剔除在动态物体上的特征点;同时加入半静态物体识别模块配合目标检测网络进一步检查特征点是否为潜在动态特征点;最终根据相邻帧的位置关系来对剔除动态目标的位置进行背景补全并完成最终的建图。本发明显著降低了在动态环境SLAM系统的轨迹误差,同时保证了系统的实时性和鲁棒性。
本发明授权动态场景下基于深度学习的视觉SLAM方法、系统及存储介质在权利要求书中公布了:1.一种动态场景下基于深度学习的视觉SLAM方法,其特征在于,所述方法包括以下步骤: 使用RGB-D相机获取RGB图像; 对采集到的RGB图像均匀化并提取RGB图像中的ORB特征点; 将完成均匀化的RGB图像输入MASKR-CNN动态目标检测网络中识别出动态物体所在区域,将动态物体上包含的ORB特征点进行初步剔除; 将初步剔除ORB特征点的帧输入半静态物体识别模块,根据相邻帧的映射关系计算得到的深度与实际RGB-D相机的深度作差,通过阈值进行第二次去除动态ORB特征点; 对第二次去除动态ORB特征点后剩下的静态特征点利用最近点迭代算法进行特征匹配,得到相邻帧之间的位置关系,进行位姿估计,并建立最终的稀疏地图; 所述对进行第二次去除动态ORB特征点后剩下的静态特征点进行特征匹配,得到相邻帧之间的位置关系,进行位姿估计,具体包括: 对剩下的静态特征点调用Opencv函数计算出描述子,根据描述子的相似性进行特征点的匹配; 定义相邻两帧已经匹配完成的特征点: 定义前后两帧匹配的第i个点对的误差项: 构建平方和最小问题,求使误差函数达到极小的R, 其中,R,分别表示需要求得的相邻两帧间的旋转矩阵和平移向量,n表示匹配特征点的对数; 定义两组点的质心: 将误差函数作如下的处理: 其中T表示矩阵转置,在交叉项部分中,在化简后可以消去,得到的优化目标结果表示为: 对上式分三个层次求解: ①.计算对应点的质心所处的位置然后计算每个点除去质心位置的坐标: 其中表示特征点除去质心位置的坐标,表示特征点除去质心位置的坐标,根据以下公式作为判断依据计算得出使得误差函数最小的旋转矩阵R*: ②.根据误差函数得到的R*,计算使得误差函数最小的平移向量 展开误差函数关于R的误差项,得: 优化目标函数简化为:其中tr表示矩阵的迹 定义矩阵:W是一个三维矩阵,对W进行奇异值分解,得:W=U∑VT,其中,∑为特征值矩阵,U和V为正交矩阵,当W秩满时,最优旋转矩阵 R*为R*=UVT; ③.解得R*后,即可求解出
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学(深圳),其通讯地址为:518000 广东省深圳市南山区桃源街道深圳大学城哈尔滨工业大学校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。