Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 电子科技大学代梓含获国家专利权

电子科技大学代梓含获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉电子科技大学申请的专利一种基于补丁提取的可泛化神经辐射场重建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119478172B

龙图腾网通过国家知识产权局官网在2025-11-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411608599.7,技术领域涉及:G06T15/00;该发明授权一种基于补丁提取的可泛化神经辐射场重建方法是由代梓含;郭建东;马乾豪设计研发完成,并于2024-11-12向国家知识产权局提交的专利申请。

一种基于补丁提取的可泛化神经辐射场重建方法在说明书摘要公布了:本发明属于三维重建与机器学习技术领域,公开了一种基于补丁提取的可泛化神经辐射场重建方法,基于多视图立体视觉和神经辐射场的体渲染算法,来隐式学习一个静态三维场景,实现复杂场景任意角度的新视角合成,进行场景的三维重建。首先,提取源视图与目标视图的二维图像特征,通过单应性变换利用平面扫描算法扭曲参考视图特征的坐标系来构造三维的成本体积;其次,对于当前场景所构造的成本体积,将其输入到一个三维卷积神经网络中,得到神经编码体积。将神经编码体积输入到多层感知机内,回归得到体积密度与颜色,从而构建神经辐射场;然后,利用当前神经辐射场渲染得到目标视图,分别提取目标视图与参考视图补丁,利用预训练的VGG‑16低层网络提取参考视图补丁特征与目标视图补丁特征进行对比。最后计算平均绝对误差量化得到目标视图补丁与参考视图补丁的内容特征差异,并作为整体损失函数的正则项来提高模型渲染质量。本发明可用于可泛化的多视图三维重建,能够通过高效的训练机制进行局部特征增强,提高对图像细节与物体边界的渲染能力。

本发明授权一种基于补丁提取的可泛化神经辐射场重建方法在权利要求书中公布了:1.一种基于补丁提取的可泛化神经辐射场重建方法,其特征在于,包括以下步骤: S1,提取源视图与目标视图的二维图像特征,通过单应性变换扭曲参考视图特征的坐标系来构造三维的成本体积; S2,利用三维卷积神经网络将成本体积转化为神经编码体积,通过多层感知机回归辐射场; S3,每64个全局训练步骤后,对当前目标视图随机取64×64大小的补丁进行局部训练,按照当前多层感知机的参数渲染得到目标视图,分别对参考视图与目标视图进行特征提取得到图像对应特征值Fr与Ft; S4,对于全局训练,基于目标视图以及参考视图的像素差定义损失函数,在局部训练中,加上以特征差异约束的正则化损失项通过反向传播进行梯度下降,更新网络参数; 步骤S1中,对于当前输入的参考视图与源视图,得到特征图并通过平面扫描算法得到当前全局训练的成本体积,成本体积是通过几何感知来推理的,通过成本体积学习到一个通用的函数,该步骤S1具体包括以下分步骤: S11,提取二维图像特征,通过二维卷积神经网络T提取二维图像特征,得到局部图像外观的神经特征,该神经网络由七层下采样卷积层组成,将图像输入中转化为特征映射 Fi=TIi1 其中H与W表示输入图片的长与宽,C是得到的特征通道数; S12,扭曲特征图,得到特征图后利用平面扫描算法,通过单应性变换得到源视图i到参考视图的扭曲特征,数据集给定相机内外参数Φ=[K,R,t],计算单应性变换将源图片映射到参考视图的视角的扭曲矩阵: 其中Hiz是在深度z处从源视图i到参考视图的扭曲矩阵,K是内在矩阵,R和t是相机旋转和平移矩阵,每个源视图的特征都可以通过对应的扭曲矩阵变换到参考视图: Fi,zu,v=FiHiz[u,v,1]T3 Fi,z是视图i在参考视角深度z处的扭曲特征映射,u,v表示参考视图中的像素位置; S13,构造成本体积,成本体积由扭曲特征图构建,利用基于方差的度量来计算成本体积,对于以坐标u,v,z为中心的成本体积中的每个体素,其成本特征向量通过如下进行计算: Pu,v,z=VarFi,zu,v4 Var代表计算了M个视图的方差,基于方差的代价编码体积编码了不同输入视图的图像外观变化; 步骤S3中,重建当前神经辐射场后,由TTUR启发每进行64次全局的训练则进行一次针对补丁的局部训练,来提高辐射场的重建效果,通过预训练的VGG低层网络分别提取参考视图补丁的特征值与当前辐射场渲染得到的目标视图补丁的特征值以进行局部训练; 利用预训练的VGG-16低层网络提取参考视图补丁特征与目标视图补丁特征进行对比,在每64次全局训练之后,在当前参考视图中随机取得64×64像素大小的参考视图补丁,并且利用当前训练得到的网络渲染得到目标视图,根据参考视图补丁的坐标获得目标视图中对应的64×64像素大小的目标视图补丁,选择VGG低层网络conv3_2以及之前的卷积层: Fi=VGGlow-layerPatchi5 由此分别得到参考视图补丁特征Fr与目标视图补丁特征Ft。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区西区西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。