Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 重庆邮电大学唐述获国家专利权

重庆邮电大学唐述获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉重庆邮电大学申请的专利一种基于非对称U-Net网络的动态场景盲去模糊方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116188313B

龙图腾网通过国家知识产权局官网在2025-08-15发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310199043.6,技术领域涉及:G06T5/73;该发明授权一种基于非对称U-Net网络的动态场景盲去模糊方法是由唐述;吴杨设计研发完成,并于2023-03-03向国家知识产权局提交的专利申请。

一种基于非对称U-Net网络的动态场景盲去模糊方法在说明书摘要公布了:本发明属于图像处理技术领域,具体涉及一种基于非对称U‑Net网络的动态场景盲去模糊方法;该方法包括:获取模糊图像并将其输入到编码器模块中,得到第一特征图;采用模糊核逆核估计模块对第一特征图进行处理,得到第二特征图;将第二特征图输入到解码器模块中,得到三张推理清晰图像;从三张推理清晰图像中选择图像质量评价指标最高的图像作为最终的清晰图像;根据三张推理清晰图像、真实清晰图像和真实模糊图像计算总损失;根据总损失调整模型参数,得到训练好的基于非对称U‑Net网络的动态场景盲去模糊模型;本发明实现了动态场景中空间变化模糊图像的高质量盲复原,同时模型参数数量较小。

本发明授权一种基于非对称U-Net网络的动态场景盲去模糊方法在权利要求书中公布了:1.一种基于非对称U-Net网络的动态场景盲去模糊方法,其特征在于,包括:获取待去模糊的模糊图像,将模糊图像输入到训练好的基于非对称U-Net网络的动态场景盲去模糊模型中,得到清晰的图像; 基于非对称U-Net网络的动态场景盲去模糊模型的训练过程包括: S1:获取模糊图像并将其输入到编码器模块中,得到第一特征图; S2:采用模糊核逆核估计模块对第一特征图进行处理,得到第二特征图;采用模糊核逆核估计模块对第一特征图进行处理的过程包括: 第一特征图依次经过一层输入通道与输出通道均为128的3×3卷积、2个NAFBlock和一层输入通道为128输出通道为25的3×3卷积处理后,得到模糊核; 模糊核依次经过一层输入通道与输出通道均为25的3×3卷积、2个NAFBlock和一层输入通道为25输出通道为49的3×3卷积处理后,得到逆核; 采用自适应滤波器卷积层对第一特征图和逆核进行处理,得到第二特征图; S3:将第二特征图输入到解码器模块中,得到三张推理清晰图像;从三张推理清晰图像中选择图像质量评价指标最高的图像作为最终的清晰图像; S4:根据三张推理清晰图像、真实清晰图像和真实模糊图像计算总损失;根据总损失调整模型参数,得到训练好的基于非对称U-Net网络的动态场景盲去模糊模型;其中,总损失由再模糊损失和多输出融合损失组成; 计算再模糊损失的公式为: LReBlur=PSNRBReBlur,↓4BGT 其中,LReBlur表示再模糊损失,BReBlur表示推理模糊图像,BGT表示真实模糊图像,↓4表示对图像进行四倍双线性插值下采样; 计算多输出融合损失的公式为: LMORL=minPSNRSi,SGT 其中,LMORL表示多输出融合损失,Si表示第i张推理清晰图像,SGT表示真实清晰图像,PSNR表示PSNR损失函数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区南山街道崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。