Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京理工大学熊光明获国家专利权

北京理工大学熊光明获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京理工大学申请的专利一种基于多尺度自注意力机制的多模态地点识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119625667B

龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411444267.X,技术领域涉及:G06V20/56;该发明授权一种基于多尺度自注意力机制的多模态地点识别方法是由熊光明;周子杰;成璐琪;亓章硕设计研发完成,并于2024-10-16向国家知识产权局提交的专利申请。

一种基于多尺度自注意力机制的多模态地点识别方法在说明书摘要公布了:一种基于多尺度自注意力机制的多模态地点识别方法,属于地点识别领域。本发明实现方法为:通过同时以环视多视角RGB图像、激光雷达环境点云、毫米波雷达环境点云作为输入,在多个特征尺度上通过自注意力机制进行多模态特征融合,生成多模态全局LCGD描述子,并按照欧氏距离,以LCGD描述子筛选k个候选样本;通过对毫米波雷达环境点云提取点云散射截面积概率密度函数,计算重排序总距离,对k个候选样本进行重排序,以重排序距离最小的候选样本坐标作为车辆当前时刻坐标。本发明能够用于解决现有地点识别技术存在的面对光照、天气等环境因素变化,以及对车辆自身视角变化鲁棒性较差的问题,增强地点识别方法的识别精度以及在不同环境条件下的泛化性。

本发明授权一种基于多尺度自注意力机制的多模态地点识别方法在权利要求书中公布了:1.一种基于多尺度自注意力机制的多模态地点识别方法,其特征在于:包括如下步骤, 步骤S1、使用搭载环视多视角相机、多线激光雷达以及毫米波雷达的智能车辆,在环境中采集多组环境观测样本构成数据集;所述环境观测样本包括采集时刻智能车辆的坐标、智能车辆的里程计信息、环视多视角RGB图像、激光雷达环境点云以及多视角毫米波雷达环境点云;所述环视多视角RGB图像包括前视、左前视、左后视、后视、右后视、右前视,6个视角RGB图像;所述多视角毫米波雷达环境点云包括前视、左前视、左后视、右后视、右前视; 步骤S2、将S1的激光雷达环境点云通过球面投影得到多个激光雷达深度图像; 步骤S3、将S1的环视多视角RGB图像反投影到激光雷达坐标系,得到同时包含RGB值与三维坐标的RGB点云;再将多个视角得到的RGB点云拼接,通过球面投影,得到激光雷达视角下的全景RGB图像; 步骤S4、对S2得到的多个激光雷达深度图像、S3得到的全景RGB图像分组,构建三元数据组;三元数据组包含多个样本组,每个样本组包含一个查询样本、一个正样本和多个负样本;将三元数据组作为训练数据集; 步骤S5、采用多模态描述子提取网络对S3得到的全景RGB图像与S2得到的激光雷达深度图进行特征提取和聚合,得到LCGD描述子;所述多模态描述子提取网络由多模态特征融合模块和全局特征聚合模块共同构成; 将S3得到的全景RGB图像与S2得到的激光雷达深度图分别通过多模态特征融合模块提取特征,得到视觉特征图和激光雷达特征图;再将视觉特征图和激光雷达特征图分别通过全局特征聚合模块得到视觉亚描述子和激光雷达亚描述子,将视觉亚描述子和激光雷达亚描述子拼接得到LCGD描述子; 步骤S6、使用三元组损失TripletLoss,利用步骤S4得到的训练数据集,对S5中的多模态描述子提取网络进行训练,使得查询样本的描述子接近正样本描述子,同时远离负样本描述子;得到训练好的多模态描述子提取网络; 步骤S7、通过步骤S6训练好的多模态描述子提取网络,按照步骤S5的方法处理S4中数据子集db中的每个样本,得到描述子数据库; 步骤S8、在智能车辆定位阶段,对当前时刻采集到的环视多视角的RGB图像和激光雷达环境点云,进行步骤S2、S3、S5操作,得到当前时刻的LCGD描述子;按照欧式距离对比当前时刻的LCGD描述子与S7的描述子数据库中的所有描述子,从描述子数据库中选取距离最小的k个作为候选描述子,并将其对应的样本作为候选样本; 步骤S9、对当前时刻采集到的多视角毫米波雷达环境点云中的样本进行如下操作:将当前帧样本的所有视角的毫米波雷达环境点云统一投影至前视毫米波雷达坐标系,得到前视坐标系下的毫米波雷达环境点云;使用车辆里程计信息,将当前帧样本的前3帧样本中的前视坐标系下的毫米波雷达环境点云投影至当前样本坐标系下,得到当前时刻的稠密毫米波雷达环境点云; 步骤S10、去除S9得到的当前时刻的稠密毫米波雷达环境点云中的动态点,得到静态点云;计算当前时刻的静态点云散射截面积RCS概率密度函数; 步骤S11、通过步骤S9、步骤S10的方法,对S8得到的k个候选样本进行计算,得到k个候选样本的点云RCS概率密度函数; 步骤S12、利用步骤S10得到的当前时刻点云RCS概率密度函数及步骤S11得到的k个候选样本的点云RCS概率密度函数,计算RCS概率分布距离;结合RCS概率分布距离与欧氏距离,得到重排序总距离;所述欧氏距离为S8得到的当前时刻LCGD描述子与k个候选描述子的欧氏距离;利用重排序总距离对k个候选样本进行重排序; 步骤S13、利用步骤S12的重排序结果,选取重排序距离最小的样本作为匹配样本,并取该样本的坐标作为当前时刻智能车辆的坐标,以此完成更高精度的地点识别。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。