江苏安自达科技有限公司徐伟凡获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉江苏安自达科技有限公司申请的专利面向自动驾驶场景的多传感器融合感知方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119963960B 。
龙图腾网通过国家知识产权局官网在2025-09-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510037692.5,技术领域涉及:G06V10/80;该发明授权面向自动驾驶场景的多传感器融合感知方法是由徐伟凡;邓海设计研发完成,并于2025-01-10向国家知识产权局提交的专利申请。
本面向自动驾驶场景的多传感器融合感知方法在说明书摘要公布了:本发明涉及计算机视觉技术领域,具体涉及一种面向自动驾驶场景的多传感器融合感知方法,采用多视角的图像和雷达点云数据作为输入,分别通过图像和雷达处理网络提取特征,在特征级进行二次特征融合,最终实现3D目标的检测。本发明通过雷达点云数据得到雷达语义特征和雷达目标概率图信息,通过融合雷达目标概率图信息指导图像bev特征的生成,提升了图像特征对目标的表达能力。采用二次特征融合策略,通过融合雷达语义特征和图像bev特征,采用bevencoder进一步提取多传感器数据特征,能更充分的融合多传感器特征,提升网络对目标的建模能力。
本发明授权面向自动驾驶场景的多传感器融合感知方法在权利要求书中公布了:1.面向自动驾驶场景的多传感器融合感知方法,其特征在于:采用多视角的图像和雷达点云数据作为输入,分别通过图像和雷达处理网络提取特征,在特征级进行二次特征融合,最终实现3D目标的检测;具体地,检测流程分为两条主线,其一为图像数据的处理,其二为radar点云数据的处理; 所述图像数据的处理步骤为: (1.1)输入多视觉图像数据; (1.2)对图像进行预处理; (1.3)提取2D图像特征; (1.4)对提取的特征进行特征融合; (1.5)设置离散深度信息预测分支,通过该分支预测每个特征图像素点上的离散深度信息; (1.6)2D到3D特征转换:根据预测的深度信息和相机内外参数,根据坐标转换公式得到2D特征点对应3D空间的坐标,即得到2D特征在3D空间的特征表示;所述坐标转换公式如(1)所示: 其中为预测的深度值,K为相机内参,R为相机坐标系到世界坐标系的旋转矩阵,t为平移矩阵,为当2D像素点深度值为时对应的3D坐标高度值; (1.7)BEV-pooling模块:根据自车坐标系,预先划分128*128的bevgrid,每个grid大小为[0.5m,0.5m],根据划分好的网格,将3D空间中的点分配到对应的网格中,通过sum-pooling得到其在bev空间的特征表示; (1.8)第一次融合:根据radar数据提取得到bev空间下的目标概率图和图像bev特征进行融合,利用radar预测的目标概率指导图像bev特征的进一步提取; (1.9)第二次融合:进一步提取到的图像bev特征和radar语义特征沿通道维度进行拼接,拼接后的特征通过bevencoder进一步融合; (1.10)预测头:通过离散的预测分支,预测目标的长宽高、中心点位置、朝向角、速度和类别信息; 所述radar点云数据的处理步骤为: (2.1)体素化:首先通过对不规则点云数据的体素化处理,得到radar点云特征; (2.2)通过全连接层网络对点云数据沿特征维度进行maxpooling得到体素特征,并根据划分好的bev网格,将特征分配到对应的网格中,得到radar数据的bev特征表示; (2.3)雷达bev特征提取,进一步提取雷达特征; (2.4)雷达目标概图和语义特征的提取:通过解耦的radar预测分支,得到雷达目标概率图和语义特征表示,分别和图像特征进行二次融合。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人江苏安自达科技有限公司,其通讯地址为:223800 江苏省宿迁市经济开发区智能小家电产业园西区A12栋标准厂房;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励