Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 华东师范大学杨杰获国家专利权

华东师范大学杨杰获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉华东师范大学申请的专利一种基于神经辐射场和语义分割的单目视图深度估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115393410B

龙图腾网通过国家知识产权局官网在2025-12-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210854710.5,技术领域涉及:G06T7/55;该发明授权一种基于神经辐射场和语义分割的单目视图深度估计方法是由杨杰;马利庄;宋海川设计研发完成,并于2022-07-18向国家知识产权局提交的专利申请。

一种基于神经辐射场和语义分割的单目视图深度估计方法在说明书摘要公布了:本发明公开了一种基于神经辐射场和语义分割的单目视图深度估计方法,其特点是采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,具体包括:1深度先验预测;2深度先验优化;3神经辐射场训练;4体渲染输出深度图等步骤。本发明与现有技术相比具有解决了常规单目深度估计问题中低纹理区域特征不足和自遮挡导致的缝隙深度误差问题,提升了网络的拟合和自适应能力,增强了语义信息,从而提高了深度尤其是低纹理区域和边缘区域深度的预测效果,方法简便,使用效果好,优势,具有广泛的应用前景。

本发明授权一种基于神经辐射场和语义分割的单目视图深度估计方法在权利要求书中公布了:1.一种基于神经辐射场和语义分割的单目视图深度估计方法,其特征在于采用基于神经辐射场的语义分割或者部件分割的方法,利用增强的语义信息提升网络的拟合和自适应能力,实现对单场景下多张视图进行深度估计,具体包括下述步骤: 步骤1:深度先验预测1‑1:将每个场景图片一起输入利用三维重建算法获得场景的稀疏点云,并将点云投影到每个视角下,获得对应视角的稀疏深度图和对应遮罩; 1‑2:将场景图片单独输入到预训练的深度预测网络,利用其对应的稀疏深度图和尺度不变的损失函数进行指导获得每张图片对应的深度先验图,从而将网络过拟合到该场景,即同一场景所有图片共享网络参数; 步骤2:深度先验优化2‑1:将每个场景图片单独输入到预训练的语义分割网络,获得对应的语义分割灰度图结果,将语义分割灰度图和步骤1‑2获得的深度先验图进行拼接,共同输入到优化网络; 2‑2:优化网络整体呈编码器‑解码器结构,提取不同尺度图片信息,并输出场景每张图片的深度预测图,对深度预测图和步骤1‑1获得的稀疏深度图计算尺度不变的损失函数,并与步骤1‑2深度预测网络的损失函数一起加权求和,获得总损失函数进行指导,强化场景的语义理解,优化步骤1‑2获得的深度先验图; 步骤3:神经辐射场训练3‑1:利用每张图片的相机位姿参数,在每个像素对应相机视角的射线上采样,采样范围由深度先验图、以及根据深度先验图计算出的深度置信图进行指导,即将颜色图片信息转换为包含点的位置和观察视角的大量空间点的信息; 3‑2:将所有三维空间点的坐标信息输入到全连接网络,在多层感知机和残差结构后输出每个点对应的密度概率值和分割信息值,同时向网络中输入空间点的视角信息,并在额外的全连接层后输出每个三维空间点的颜色信息值; 步骤4:体渲染输出深度图4‑1:利用体渲染公式和输出的密度概率信息、分割信息以及颜色信息计算每个像素的预测分割概率分布、预测颜色值,将生成的分割信息和原图对应的语义分割图信息进行比较,计算交叉熵损失;将生成的颜色信息和原图颜色信息进行比较,计算其均方方差损失; 将交叉熵损失和均方方差损失的两个函数加权相加,并进行反向传播推进网络训练; 4‑2:利用完成训练的密度概率信息和每个点采样时的深度信息进行体渲染,得到每个像素最终的深度值,从而完成深度图的生成; 4‑3:利用体渲染得到的颜色图与输入神经辐射场的原图进行对比,计算其误差作为滤波,对得到的深度图进行过滤优化。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华东师范大学,其通讯地址为:200241 上海市闵行区东川路500号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。