同济大学邓清获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉同济大学申请的专利一种融合RGB与红外信息的3D目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116385761B 。
龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310085430.7,技术领域涉及:G06F16/00;该发明授权一种融合RGB与红外信息的3D目标检测方法是由邓清;田炜设计研发完成,并于2023-01-31向国家知识产权局提交的专利申请。
本一种融合RGB与红外信息的3D目标检测方法在说明书摘要公布了:本发明涉及一种融合RGB与红外信息的3D目标检测方法,包括:获取像素对齐的RGB与红外图像样本数据;构建基于深度学习的目标检测网络,利用样本数据进行训练,得到目标检测模型;将实际中同时拍摄且对齐的RGB与红外图像输入该模型,得到目标的3D位姿信息。其中,目标检测网络包括:双模态融合骨干网络提取双模态特征并进行特征级融合、语义特征提取模块、深度感知特征增强模块隐式学习深度感知特征、深度位置编码模块生成深度位置编码、深度感知Transformer模块全局集成特征图、检测头预测物体类别、2D框及3D框。与现有技术相比,本发明能够有效融合RGB与红外双模态的互补信息,能够提升低光照场景下的目标检测性能,确保检测结果的准确性。
本发明授权一种融合RGB与红外信息的3D目标检测方法在权利要求书中公布了:1.一种融合RGB与红外信息的3D目标检测方法,其特征在于,包括以下步骤: S1、获取像素对齐的RGB与红外图像样本数据; S2、构建基于深度学习的目标检测网络,并利用步骤S1获取的样本数据对目标检测网络进行训练,得到目标检测模型; S3、将实际中同时拍摄且对齐的RGB与红外图像输入目标检测模型,输出得到目标的3D位姿信息; 所述目标检测网络包括双模态融合骨干网络、语义特征提取模块、深度感知特征增强模块、深度位置编码模块、深度感知Transformer模块和检测头,所述双模态融合骨干网络用于从像素对齐的RGB与红外图像中提取双模态特征并进行融合,得到融合特征; 所述语义特征提取模块用于从融合特征中提取出语义特征; 所述深度感知特征增强模块用于从融合特征中预测出深度信息、并挖掘出深度感知特征; 所述深度位置编码模块用于根据深度信息,生成相应的深度位置编码; 所述深度感知Transformer模块基于语义特征、深度感知特征和深度位置编码,通过建立语义特征与深度感知特征之间的全局交互关系,得到集成特征图; 所述检测头基于集成特征图,输出对应检测结果; 步骤S2中对目标检测网络进行训练具体包括以下步骤: S21、针对输入的像素对齐的RGB与红外图像,由双模态融合骨干网络提取出双模态特征、并采用多层的特征级融合算法进行融合,得到融合特征; S22、针对步骤S21得到的融合特征,通过语义特征提取模块提取出语义特征; S23、对步骤S21得到的融合特征,利用深度感知特征增强模块通过辅助深度监督,以学习物体的深度信息,并在深度信息基础上进一步隐式地学习得到深度感知特征; S24、深度位置编码模块根据步骤S23预测得到的深度信息,生成对应的深度位置编码; S25、深度感知Transformer模块基于步骤S22生成的语义特征、步骤S23生成的深度感知特征与步骤S24生成的深度位置编码,利用Transformer的编码器、解码器架构,建立出语义特征与深度感知特征之间的全局交互关系,并得到集成特征图,实现深度信息对3D目标检测的关键引导; S26、将集成特征图输入基于锚点的2D-3D检测头,分别预测得到物体类别、2D框及3D框,并设计损失函数用于目标检测网络训练; 步骤S21具体包括以下步骤: S211、针对输入的像素对齐的RGB与红外图像,由两个卷积神经网络分别独立提取相应特征,得到多个尺度层级上的RGB模态特征与红外模态特征; S212、在两个卷积神经网络的最后三个网络层上,将相应的RGB模态特征与红外模态特征进行拼接,通过1×1卷积加权融合,得到三个拼接特征; S213、根据三个拼接特征的网络层高低排序,利用迭代深度聚合结构,将三个拼接特征进一步融合,输出得到单一尺度的融合特征; 步骤S23具体包括以下步骤: S231、将深度范围离散化为个小区间,针对步骤S21输出的融合特征,通过第一层卷积层得到初始深度感知特征,再通过第二层卷积层得到特征图上每个像素的深度类别概率; S232、对深度类别概率分布,利用组卷积合并相邻的深度类别,类别个数以为采样间隔下采样到,下采样后的类别共享相似的深度线索、降低计算量; S233、初始深度感知特征通过卷积层再提取得到; S234、对中的每个深度类别,的所有像素按照对应概率加权后在空间维度上累加,得到每个深度类别的深度原型: 其中,为第个像素的特征,为第个像素属于第个深度类别的概率; S235、对每个像素位置,所有深度类别的深度原型按照对应概率加权后累加,得到重构深度感知特征,使每个像素从全局角度理解深度类别的表征: S236、将初始深度感知特征X与重构深度感知特征拼接,通过1×1卷积再提取,得到增强的深度感知特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人同济大学,其通讯地址为:200092 上海市杨浦区四平路1239号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励