Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 复旦大学颜波获国家专利权

复旦大学颜波获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉复旦大学申请的专利基于几何感知的深度学习多视角图超分辨率方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114913066B

龙图腾网通过国家知识产权局官网在2025-09-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210380843.3,技术领域涉及:G06T3/4053;该发明授权基于几何感知的深度学习多视角图超分辨率方法是由颜波;谭伟敏;程日;孙玉齐;马晨曦设计研发完成,并于2022-04-10向国家知识产权局提交的专利申请。

基于几何感知的深度学习多视角图超分辨率方法在说明书摘要公布了:本发明属于数字图像智能处理技术领域,具体为一种基于几何感知的深度学习多视角图超分辨率方法。本发明方法包括:将多视角场景里面所有多视角图片及其对应的深度图、相机内外参数输入到参考图片合成网络中,利用几何信息合成每张视角图片的多张参考图;将视角图片和合成的参考图片输入到参考超分辨率网络,通过利用合成的参考图片辅助视角图片超分辨率。本发明的优势在于利用场景里面所有多视角图片的信息来超分辨率。实验结果表明,本发明从所有视角图片提取到有用信息,可显著提高超分模型的性能,从而提高基于多视角图片应用的视觉体验。

本发明授权基于几何感知的深度学习多视角图超分辨率方法在权利要求书中公布了:1.一种基于几何感知的深度学习多视角图超分辨率方法,其特征在于,具体步骤为: 1将同一个多视角场景里面所有多视角图片及其对应的深度图、相机内外参数输入到参考图片合成网络里,参考图片合成网络利用场景几何信息进行图像和深度图对齐; 2参考图片合成网络利用步骤1中获得的距离几何信息,提取对齐图片里的高频细节,来合成每张视角图片的多张多视角参考图和多张相邻视角参考图; 3训练参考超分辨率网络,用步骤2中合成的所有参考图作为辅助,对低分辨率输入视角图进行超分辨率训练; 步骤1中,所述参考图片合成网络利用场景几何信息进行图像和深度图对齐,具体做法为:参考图片合成网络先将深度图上采样到超分辨率目标倍数,本方法的超分辨率上采样目标倍数为4倍,同时将相机内外参数依据超分辨率目标倍数进行修改;然后使用这些几何信息通过单应性变换将所有多视角图片、深度图对齐到待超分辨率的视角图片、深度图,其对齐原理如下公式: 其含义为,将第i张多视角图片、深度图对齐到待超分辨率的视角图片、深度图;其中,下标i、T和i→T分别表示第i张多视角数据、待要超分辨率视角数据和将第i张多视角数据对齐到待要超分辨率视角,上标lr和hr分别表示数据为低分辨率和高分辨率,D、P和I分别表示多视角深度图、多视角相机内外参数和多视角图片,UpSample表示上采样操作,W表示单应性变换; 步骤2中,所述提取对齐图片里的高频细节,来合成每张视角图片的多张多视角参考图和多张相邻视角参考图,具体做法为:参考图片合成网络使用从单应性变换获得的对齐深度图作为距离几何信息,并首先将所有对齐的深度图分块为小方块,再用每一方块的平均深度值赋予这一个深度方块,其原理如下公式: 其中,1≤j≤H×W162,j表示第j小方块,H和W表示深度图的高度和宽度,每个方块的边长为16,unfold和mean分别表示深度图分块和深度值平均操作,Di→T,j和表示第i张多视角对齐深度图、对齐深度图的第j小方块和对齐深度图的第j平均小方块;比较每个位置深度方块的深度值大小来获得最小深度方块的索引;接着依据获得的索引对从单应性变换获得的对齐视角图片提取图片块;最后将提取的图片块组合成合成参考图片,其原理如下公式: R=foldR1,R2,…,RJ,9 其中,J=H×W162,Hj、Rj和R分别表示第j深度方块的索引、从索引获得的第j小方块图片和由所有小方块图片组合成的合成参考图,fold表示组合成合成参考图操作;参考图片合成网络重复此过程6次,获得由前6小深度图索引得到6张合成多视角参考图这里上标M表示参考合成图是由所有视角合成的。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人复旦大学,其通讯地址为:200433 上海市杨浦区邯郸路220号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。