北京大学陈文拯获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京大学申请的专利基于神经特征解码的鲁棒单帧结构光三维成像方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121505174B 。
龙图腾网通过国家知识产权局官网在2026-05-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511692846.0,技术领域涉及:G06T17/00;该发明授权基于神经特征解码的鲁棒单帧结构光三维成像方法及系统是由陈文拯;李佳恒;戴启宇;陈宝权;孙赫设计研发完成,并于2025-11-18向国家知识产权局提交的专利申请。
本基于神经特征解码的鲁棒单帧结构光三维成像方法及系统在说明书摘要公布了:本发明公布了一种基于神经特征解码的鲁棒单帧结构光三维成像方法及系统,包括:数据生成模块、神经特征匹配模块和深度优化模块;通过对结构光进行物理仿真,构建大规模合成结构光数据集;构建神经特征匹配模块,通过神经特征匹配获取初始深度图;设计深度优化模块,将初始深度图作为几何提示,注入到视觉基础模型中,在初始深度图的基础上进一步优化,生成最终深度图,实现单帧结构光三维成像。本发明克服了三维成像方法在强环境光、高反光、半透明等复杂真实场景下精度低、鲁棒性差的缺陷,并解决深度学习方法应用于结构光领域时严重缺乏大规模高质量训练数据的问题,提升在复杂场景下单帧结构光三维成像的精度和鲁棒性。
本发明授权基于神经特征解码的鲁棒单帧结构光三维成像方法及系统在权利要求书中公布了:1.一种基于神经特征解码的单帧结构光三维成像方法,其特征在于,包括以下步骤: A构建仿真结构光环境,对结构光进行物理仿真,构建生成大规模合成结构光数据集; B构建神经特征匹配模块,通过神经特征匹配获取初始深度图;包括: B1:接收外部输入的单帧结构光投影图案和红外相机捕获的结构光红外图像,进行多源神经特征提取;红外相机可单目配置或双目配置;多源神经特征包括局部神经特征和上下文神经特征; B2:通过计算两个不同图像局部神经特征图之间的相关性,同时在左红外相机图像和结构光投影图案之间、和或左红外相机图像和右红外相机图像之间,构建多尺度结构光代价体,形成多层级的代价体金字塔; B3:迭代优化生成初始深度图; 基于循环神经网络,根据代价体和上下文神经特征迭代地预测并优化视差,得到视差图,并计算得到初始深度图; C设计深度优化模块,将初始深度图作为几何提示,注入到视觉基础模型中,在初始深度图的基础上进一步优化,生成最终深度图;深度优化模块只使用左红外图像; 其中,深度优化模块包括:预训练的深度估计视觉基础模型和由多层卷积层组成的提示网络; 视觉基础模型包括ViT编码器和DPT解码器,ViT编码器从图像中编码高级全局信息,DPT解码器从编码的高级全局信息中推理图像深度;提示网络用于将初始深度图编码为几何提示特征,并将其注入到DPT解码器;DPT解码器根据ViT编码器提取的高级全局信息和初始深度的几何提示特征,推理出高精度的最终深度图,实现单帧结构光三维成像; 视觉基础模型采用DepthAnythingV2;设计深度优化模块包括如下步骤: c1,扩展深度估计视觉基础模型DepthAnythingV2;采用在海量图像上预训练、并在结构光数据上微调的深度估计视觉基础模型DepthAnythingV2作为深度优化模块的主干网络; 深度估计视觉基础模型DepthAnythingV2包含一个基于Transformer的图片ViT编码器编码器和一个DPT解码器;ViT编码器用于提取图片中的语义高级全局信息;在解码器处加以扩展,同时接收ViT编码器的中间层编码和作为提示的初始深度图,修复初始深度图中的低质量区域; c2,输入左红外图进行编码,并注入初始深度图;包括:将左红外图像输入到该ViT编码器中,抽取ViT编码器中间层的输出特征,输入到DPT解码器; 将初始深度图作为一种强几何提示,通过提示网络编码为几何提示特征; 将从ViT编码器中间层中抽取的中间层特征与初始深度图编码得到的提示特征输入到DPT解码器中; c3,DPT解码器输出最终深度图; DPT解码器融合来自ViT编码器的红外图像单目视觉特征和来自初始深度图的几何提示特征,对初始深度图进行优化,输出最终深度图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京大学,其通讯地址为:100871 北京市海淀区颐和园路5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励