电子科技大学左琳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉电子科技大学申请的专利一种基于低光特征先验的低照度图像增强方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119205539B 。
龙图腾网通过国家知识产权局官网在2025-11-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411391478.1,技术领域涉及:G06T5/60;该发明授权一种基于低光特征先验的低照度图像增强方法是由左琳;罗文伟;胡钰国;郭峰;敬蒙蒙;余芸倩;田现龙设计研发完成,并于2024-10-08向国家知识产权局提交的专利申请。
本一种基于低光特征先验的低照度图像增强方法在说明书摘要公布了:本发明公开了一种基于低光特征先验的低照度图像增强方法,属于深度学习技术领域。本发明采用低光特征图、注意力机制和扩散模型,对实际应用场景中存在的低照度图像进行增强,首先使用特征感知模块对低光图像提取低光特征图,然后使用卷积网络对低光区域进行局部恢复,再结合低光特征图引导的注意力机制对极暗区域进行全局恢复,接着融合两个恢复结果得到粗粒度的增强结果,最后通过扩散模型进行细粒度的细节恢复,得到最终的增强结果。本发明提出的方法在进行低照度图像增强时,有效恢复了图像的低光区域和极暗区域,极大地减少了增强后所带来的伪影和噪声,显著提升了图像的视觉感知质量。
本发明授权一种基于低光特征先验的低照度图像增强方法在权利要求书中公布了:1.一种基于低光特征先验的低照度图像增强方法,其特征在于,包括以下步骤: 步骤1,获取所需的成对低照度数据集,每对数据包括同一场景中低光图片与正常光图片,并对数据集中的图片进行初步处理,划分训练集和测试集; 步骤2,将步骤1的低照度数据进行预处理,以符合模型输入,接着进行归一化处理;其中,过程分为如下3个步骤; 步骤2-1,使用imageio和opencv完成图片的读取,根据输入的文件名、文件路径以及图片大小读取对应的图片文件,并返回包含图片的数组; 步骤2-2,使用shuffle和文件名对步骤2-1所得到的数据进行批次读取,根据数据文件的数量,对其索引进行shuffle,然后根据索引对应的文件,完成数据的读取; 步骤2-3,调用transforms中的方法实现数据的处理,对步骤2-2中读取的数据进行归一化处理; 步骤3,利用特征感知模块对步骤2中得到的图像数据提取图像的亮度特征,使用VGG特征感知质量损失对亮度特征进行约束,得到低光特征图,同时对低光特征图进行归一化操作得到特征注意力图;其中,该过程分为如下2个步骤; 步骤3-1,通过特征感知模块提取低光特征图,并使用VGG特征感知质量损失对亮度特征进行约束,特征感知模块由卷积网络构成,具体过程如下所示: Ifea=ConvIlq 其中,Ilq和Ifea代表了输入的低光图像和提取出的低光特征图,Conv代表卷积网络,包括四个卷积块,每个卷积块由一个填充层、一个3x3卷积层、一个归一化层和一个激活层组成,Φ代表了VGG网络,为最后计算的损失值; 步骤3-2,对于步骤3-1中提取出的低光特征图,为了降低模型复杂度,将低光特征图进行灰度化,转换为单通道特征注意力图,转换过程如下所示: T=0.299R+0.587G+0.114B 其中,T代表了灰度化的单通道特征注意力图,R、G、B分别代表了低光特征图的红色、绿色和蓝色通道; 步骤4,分别将原始数据输入卷积网络和Transformer网络中,经过卷积网络得到局部增强特征,经过Transformer得到全局增强特征,利用步骤3中的特征注意力图作为插值权重对局部增强特征与全局增强特征进行特征融合,得到粗粒度增强结果;其中,该过程分为如下5个步骤; 步骤4-1,在进行图像增强之前,本发明采用UNet网络框架,先将图像数据下采样压缩至潜在空间,提取输入图像的特征向量; 步骤4-2,对于步骤4-1中提取的特征向量使用卷积网络对低光区域进行恢复,对于具有一定信息的低光区域利用卷积网络能够有效恢复局部区域的亮度信息; 步骤4-3,对于步骤4-1中提取的特征向量使用Transformer网络对极暗区域进行恢复,利用步骤3中提取出的特征注意力图对Transformer网络中的注意力机制进行引导,使网络利用全局信息对缺乏信息的极暗区域进行恢复; 步骤4-4,对于步骤4-2和步骤4-3中恢复的局部特征和全局特征,本发明根据步骤3中提取出的特征注意力图对两种特征图进行插值融合,以上过程可表示如下: Flocal=ConvF Fglobal=TransF T′=NormalizeT Ffinal=Flocal·T′+Fglobal·1-T′ 其中,F表示步骤4-1中提取出的特征向量,Conv和Trans分别表示卷积网络和Transformer网络,Flocal和Fglobal分别表示恢复的局部特征和全局特征,T则表示步骤3中提取的特征注意力图,Normalize代表了归一化操作,T′则表示进行归一化后的特征图,Ffinal则表示最终融合后的特征图; 步骤4-5,对于步骤4-4得到融合后的特征图经过UNet网络的上采样恢复至图像空间,得到粗粒度的增强结果; 步骤5,将步骤4-5中得到的粗粒度增强结果输入扩散模型中不断的加噪和去噪,通过迭代的方式进行细粒度增强;其中,该过程分为如下3个步骤; 步骤5-1,从标准正态分布中采样随机噪声∈,∈~N0,I,从1到T的均匀分布中采样时间步长t,t~Uniform{1,...,T}; 步骤5-2,将步骤4得到的粗粒度结果输入扩散模型进行高斯扩散加噪,直至结果无限接近于高斯分布,在本发明中采用基于块分解的扩散模型,具体来说,在进行图像加噪之前先将图片分解为指定大小的块,在块级处理使得扩散过程可以更细致地针对图像的细节纹理特征,从而在细粒度上改善图像质量,具体过程如下所示: 其中,X0代表了步骤4粗粒度的增强结果,代表X0裁剪后未加噪的i个块,t代表了扩散过程的时间步长,s取值范围是0~t代表了当前时间步,as~0,1是控制噪声注入速率的超参数,代表了as的累乘结果,代表了分解为i个块后经过t步加噪的结果; 步骤5-3,对步骤5-2中经过加噪后的结果输入噪声预测网络中预测噪声进行逆向迭代去噪,对去噪后的结果进行重新拼接恢复原来图片的尺寸,得到最终细粒度的增强结果,逆向过程如下所示: βt=1-αt 其中,和t与步骤5-2中相同,代表了增强后的结果,θ代表了噪声预测网络,∈θ代表了网络预测出的噪声,z为从标准正态分布中采样的随机噪声,σt为预设的方差,Concat代表了拼接操作,将分解的块重新拼接回原来尺寸,得到最终的增强结果; 步骤6,在低照度数据集上训练步骤3、4、5所搭建的低照度图像增强网络。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人电子科技大学,其通讯地址为:611731 四川省成都市高新区(西区)西源大道2006号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励