Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 桂林电子科技大学林乐平获国家专利权

桂林电子科技大学林乐平获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉桂林电子科技大学申请的专利一种基于Transformer增强残差自编码网络的图像压缩感知重建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115984392B

龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310035119.1,技术领域涉及:G06T9/00;该发明授权一种基于Transformer增强残差自编码网络的图像压缩感知重建方法是由林乐平;廖心竹;欧阳宁;莫建文设计研发完成,并于2023-01-10向国家知识产权局提交的专利申请。

一种基于Transformer增强残差自编码网络的图像压缩感知重建方法在说明书摘要公布了:本发明公开了一种基于Transformer增强残差自编码网络的图像压缩感知重建方法,其特征在于,包括如下步骤:1对图像观测值y进行初始线性重建;2设计并采用基于Transformer进行特征增强的残差自编码网络进行深度重建;3基于全局‑局部联合损失函数进行网络训练。这种方法能更好地捕捉局部和全局特征,有效增强特征信息,精确重建原始图像。

本发明授权一种基于Transformer增强残差自编码网络的图像压缩感知重建方法在权利要求书中公布了:1.一种基于Transformer增强残差自编码网络的图像压缩感知重建方法,其特征在于,包括如下步骤: 1对图像观测值y进行初始线性重建:采用卷积神经网络CNN中卷积层Fin来学习上采样矩阵,生成一系列的向量I=Fin*y,用Reshape+Concat操作将向量I重塑为B×B×1大小的图像块,拼接得到初始重建图像Zin; 2设计并采用基于Transformer进行特征增强的残差自编码网络进行深度重建:对步骤1得到的初始重建图像Zin采用基于Transformer进行特征增强的残差自编码网络进行深度重建,得到深度重建图像Z: 首先,对初始重建图像Zin采用核大小为3×3的卷积进行通道变换得到特征图Z1,如公式1所示: Z1=convZin1; 其次,将特征图Z1通过由5个残差块堆叠而成的残差网络FR得到浅层特征图Z2,如公式2所示: Z2=FRw1,Z12, 其中,w1表示网络参数; 然后将浅层特征图Z2送入Transformer增强自编码网络Fc,得到增强特征图Z3,如公式3所示: Z3=Fcw2,Z23, 其中,w2表示网络参数,Fc表示的Transformer增强自编码网络包括:用于对输入浅层特征图Z2进行特征提取的编码网络FE、用于对特征进行增强的含有残差SwinTransformer模块RSTB的解码增强网络FD、以及用于对特征信息进行补充融合的跨层连接; 最后,将特征图Z1、Z2、Z3与初始重建图像Zin相加融合,得到最终的深度重建图像Z,如公式4所示: Z=Z+Z+Z+Zin4; 3基于全局-局部联合损失函数进行网络训练:包括: 3-1构造训练数据集,获取观测值y:采用BSDS500数据集的200张训练图像和200张测试图像、将它们随机裁剪成大小为B×B×1的不重叠的图像块,对输入图像x采用卷积神经网络CNN中卷积层F来实现基于块的采样过程,获得观测值y=F*x; 3-2构造联合损失函数Loss对网络进行端到端训练,如公式5所示 Loss=Lossint+Lossdeep5, 其中,Lossint为对初始重建图像Zin的损失项,如公式6所示: Lossdeep为对深度重建图像Z的损失项,如公式7所示: 其中,x为原始图像,Zin为初始重建图像,Z为深度重建图像; 步骤2中所述的Transformer增强自编码网络F为: 2-1将浅层特征图Z作为Transformer增强自编码网络F的输入,先经过编码网络F进行特征提取得到输出特征f 编码网络F由两个3×3卷积核和一个步长为2的下采样操作组成,每个卷积之后都有一个激活函数ReLU,如公式8、9、10、11所示: g1=Conv2Z28, f1=Downsamplingg19, g2=Conv2f110, f2=Downsamplingg211, 其中,Conv2为两个3×3卷积核和激活函数ReLU的组合,Downsampling为步长为2的下采样操作; 2-2将编码网络FE的输出特征f2送入解码增强网络FD,采用卷积层和残差SwinTransformer模块RSTB对特征图f2进行特征增强,得到输出特征f4,解码增强网络FD由两个3×3卷积、上采样和一个残差SwinTransformer模块RSTB组成,每个卷积后面都有一个激活函数ReLU,同时,将编码网络FE中的两次下采样之前得到的浅层特征g1和g2经过跨层连接到解码增强网络FD中的两次上采样之后得到的对应大小的深层特征f3和f4,将它们进行通道信息融合,最后,采用卷积将特征图转换到单通道,得到最终的输出特征Z3,如公式12、13、14、15、16所示: g3=Conv2f212, f3=UpsamplingRSTBg313, g4=Conv2concatg2,f314, f4=UpsamplingRSTBg415, Z3=convconcatg1,f416, 其中,Conv2为两个3×3卷积核和激活函数ReLU的组合,Upsampling为2×2反卷积的上采样操作,RSTB表示一个残差SwinTransformer块RSTB,concat为通道拼接,conv为3×3大小的卷积。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人桂林电子科技大学,其通讯地址为:541004 广西壮族自治区桂林市金鸡路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。