北京工业大学刘鹏宇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利基于Transformer的高倍人脸视频超分辨率处理方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120765460B 。
龙图腾网通过国家知识产权局官网在2026-03-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510834600.6,技术领域涉及:G06T3/4053;该发明授权基于Transformer的高倍人脸视频超分辨率处理方法是由刘鹏宇;贾少华;董敏;郑添阳设计研发完成,并于2025-06-20向国家知识产权局提交的专利申请。
本基于Transformer的高倍人脸视频超分辨率处理方法在说明书摘要公布了:本发明公开了基于Transformer的高倍人脸视频超分辨率处理方法,属于视频超分辨率技术领域。包括以下内容:第一,面向多通道的多维特征表示方法。第二,基于帧间逐点掩码注意力模块的时间统一性方法。第三,基于低秩分解的注意力机制参数优化方法。本发明充分利用了上述方法在视频帧内和视频帧间信息处理的针对性,与视频超分任务时空一致性的思想相结合,实现高倍人脸视频帧的高效重建,有效提升视频整体超分质量。
本发明授权基于Transformer的高倍人脸视频超分辨率处理方法在权利要求书中公布了:1.基于Transformer的高倍人脸视频超分辨率处理方法,其特征在于,包含以下步骤: 步骤1,面向多通道的多维特征表示; 在人脸视频超分任务中,输入相邻5帧,记为n-2,n-1,n,n+1,n+2,对于每一帧的大小,使用通道Channel,高度Height和宽度Weight三个维度进行表示; 步骤2,基于帧间逐点掩码注意力模块的时间一致性; 在人脸视频超分任务中,输入连续的5帧图像,记为n-2,n-1,n,n+1,n+2,输出为预测的中间帧,记为np; 步骤3,基于低秩分解的注意力机制参数优化; 在自注意力机制中,输入为X,通过查询Q、键K和值V矩阵计算输出;在标准Transformer架构中的交互注意力模块,输入包含查询、键和值,使用输入中间帧n的信息作为查询,n-2帧,n-1帧,n+1帧,n+2帧分别与n帧计算像素差值;对于像素差绝对值小于0.00001的位置,进行掩码标识,以引导模型关注帧间逐点信息,强化注意力分布; 步骤1中,对于8倍人脸视频超分任务,输入帧的大小为3×64×64,其中3表示通道,64表示高度和64表示宽度,输出是预测的中间帧np,大小为3×512×512; 对于输入的帧,首先通过双线性插值和数据增强扩展为3×256×256,之后通过向量变换操作,使输入帧的表示改变为48×64×64;按照通道维度把输入帧分别分割为4个12×64×64,2个24×64×64,1个48×64×64;使用卷积对于每一个12×64×64进行通道扩展到64×64×64,使用注意力机制构建每一个64×64×64中特征的长距离依赖,之后拼接每一个64×64×64为256×64×64;对2个24×64×64和1个48×64×64执行类似的操作,同样得到256×64×64的输出,如式1所示; 1; 其中,Channel_Enhance表示强化后的通道信息,n表示输入的中间帧,i取值-2,-1,0,1,2,表示当前的输入帧位置,分别代表中间帧的前2帧,前1帧,当前帧,后1帧,后2帧;λ取值4,2,1,表示按通道分割的样本数;Upsample表示上采样方法;Attention表示进行参数优化后的注意力机制; 最后对三组256×64×64进行均值,以融合不同来源信息,生成一个代表性的输出,为后续的帧间逐点掩码注意力模块和帧重建模块提供充分的空间信息支撑。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100024 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励