中国科学院上海微系统与信息技术研究所韩松芮获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学院上海微系统与信息技术研究所申请的专利基于自监督神经网络的视觉-惯导-雷达融合自定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116824433B 。
龙图腾网通过国家知识产权局官网在2026-04-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310495293.4,技术领域涉及:G06V20/40;该发明授权基于自监督神经网络的视觉-惯导-雷达融合自定位方法是由韩松芮;刘华巍;童官军;宋尧哲设计研发完成,并于2023-05-05向国家知识产权局提交的专利申请。
本基于自监督神经网络的视觉-惯导-雷达融合自定位方法在说明书摘要公布了:本发明涉及一种基于自监督神经网络的视觉‑惯导‑雷达融合自定位方法,包括:获取视频帧序列、惯导数据和激光雷达点云图;将视频帧序列、惯导数据和激光雷达点云图输入至位姿估计网络模型,得到输入视频帧的相对位姿估计;其中,位姿估计网络模型包括:深度预测网络,用于根据输入的视频帧序列得到深度图;特征提取网络,用于分别对输入的视频帧序列、惯导数据和激光雷达点云图提取特征信息,得到视觉特征、动量特征和雷达特征;特征融合网络,用于将视觉特征和雷达特征进行融合得到预融合特征,再将预融合特征与动量特征进行融合,得到融合特征;位姿估计网络,用于根据融合特征预测位姿变换矩阵。本发明提升了自监督深度定位算法的定位精度。
本发明授权基于自监督神经网络的视觉-惯导-雷达融合自定位方法在权利要求书中公布了:1.一种基于自监督神经网络的视觉-惯导-雷达融合自定位方法,其特征在于,包括以下步骤: 获取视频帧序列、惯导数据和激光雷达点云图; 将所述视频帧序列、惯导数据和激光雷达点云图输入至位姿估计网络模型,得到输入视频帧的相对位姿估计; 其中,所述位姿估计网络模型包括: 深度预测网络,用于根据输入的所述视频帧序列得到深度图; 特征提取网络,用于分别对输入的视频帧序列、惯导数据和激光雷达点云图提取特征信息,得到视觉特征、动量特征和雷达特征;所述特征提取网络包括: 第一特征提取部分,采用第一卷积网络从所述视频帧序列中提取出视觉特征; 第二特征提取部分,采用LSTM网络从所述惯导数据中提取出动量特征; 第三特征提取部分,将所述激光雷达点云图投影到2D平面,再采用三通道编码的方式将投影到2D平面的激光雷达点云图进行编码,并采用第二卷积网络提取出雷达特征;其中,所述第一卷积网络和第二卷积网络的结构相同,并共享除了BN层以外的所有网络层的权重; 特征融合网络,用于将所述视觉特征和雷达特征进行融合得到预融合的修正视觉特征和修正雷达特征,再将预融合的修正视觉特征和修正雷达特征与所述动量特征进行融合,得到融合特征;所述特征融合网络包括: 第一融合部分,用于采用通道交换策略将所述视觉特征和雷达特征进行融合得到预融合的修正视觉特征和修正雷达特征; 第二融合部分,用于预融合的修正视觉特征和修正雷达特征与所述动量特征进行进行通道上的拼接,得到融合特征; 位姿估计网络,用于根据所述融合特征预测位姿变换矩阵; 参数优化模块,用于根据所述深度图、位姿变换矩阵以及视频帧计算损失函数,并根据损失函数调整所述位姿估计网络模型的参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院上海微系统与信息技术研究所,其通讯地址为:200050 上海市长宁区长宁路865号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励