杭州电子科技大学顾晓玲获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种基于时序增强扩散模型的视频虚拟试衣方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119398865B 。
龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411443269.7,技术领域涉及:G06Q30/0601;该发明授权一种基于时序增强扩散模型的视频虚拟试衣方法是由顾晓玲;朱灵达;樊安澜;匡振中;吴子朝设计研发完成,并于2024-10-16向国家知识产权局提交的专利申请。
本一种基于时序增强扩散模型的视频虚拟试衣方法在说明书摘要公布了:本发明公开了一种基于时序增强扩散模型的视频虚拟试衣方法,该方法首先基于时尚数据集,构建时尚视频序列、姿态序列、语义序列和深度序列数据组。其次通过使用形变网络将服装依据姿态序列和深度序列逐帧映射到对应形变空间,得到形变服装序列作为扩散网络的指导条件。然后以生成时尚试穿视频为目标,在标准稳定扩散模型的基础上构建时序增强网络以及人体特征注入模块,将形变服装序列与时尚视频序列合成得到虚拟试衣视频序列。最后分别使用扩散损失和感知损失,通过反向传播算法对时序增强网络和人物特征注入模块中的模型参数进行训练。本发明提高用户的使用体验,推动虚拟试穿技术在电商和时尚行业的应用和发展。
本发明授权一种基于时序增强扩散模型的视频虚拟试衣方法在权利要求书中公布了:1.一种基于时序增强扩散模型的视频虚拟试衣方法,其特征在于,包括如下步骤: 步骤1、基于时尚数据集,收集任务的数据,并对数据进行预处理,构建时尚视频序列、姿态序列、语义序列和深度序列数据组; 步骤2、通过使用形变网络将服装依据姿态序列和深度序列逐帧映射到对应形变空间,得到形变服装序列作为扩散网络的指导条件;语义序列用于得到人体头部和下装的二值掩码; 步骤3、以生成时尚试穿视频为目标,在标准稳定扩散模型的基础上构建时序增强网络以及人物特征注入模块,将形变服装序列与时尚视频序列合成得到虚拟试衣视频序列; 所述时序增强网络具体如下: 时序增强网络是基于稳定扩散模型的改进型模型架构,稳定扩散模型是由一对变分自编码器和U-Net网络构成的,图像数据由变分自编码器的编码器输入,映射为潜在表征,经过U-Net网络计算,再由变分自编码器的解码器进行图像还原;其中U-Net网络由若干下采样块和若干上采样块构成,上、下采样块是由残差块和注意力块串联构建的函数组;改进措施如下: 1调整稳定扩散模型输入的处理方式:允许其接受形式为的五维视频张量,其中b和f分别代表批次轴和帧时间轴,c、h、w分别表示视频帧的通道数、高度、宽度; 2优化结构:上、下采样块包含了串联的两组残差块与注意力块,残差块中串联了若干非线性卷积层以及块内输入输出的残差连接,在每一个非线性卷积层后添加一个带有残差连接的一维卷积,使不同时间帧上的空间信息进行交互;注意力块中串联了自注意力和交叉注意力,在交叉注意力后加入一维自注意力,实现在注意力权重计算时考虑到不同时间帧; 所述人物特征注入模块具体实现过程如下: 变分自编码器由一对编码器和解码器串联构成,编码器将视觉图像逐层映射到潜在空间,而解码器将潜在空间中的图像表征逐层解析为对应图像,人物特征注入模块将变分自编码器的编码器中各层特征传递到解码器的对应层,并通过注意力机制增强重构过程中人体信息的保持,具体过程表示为如下公式: 其中,f表示可学习的非线性层,和分别表示人像注入模块在解码器第i层的输出和输入,当i=1时,即为原始输入的时尚图像,Ei表示编码器第i层的输出;Attention是交叉注意力算法,其中作为查询向量,Ei作为键向量和值向量;人像特征注入模块是一个可插拔的组件,并且训练独立于U-Net网络; 步骤4、分别使用扩散损失和感知损失,通过反向传播算法对时序增强网络和人物特征注入模块中的模型参数进行训练,直至整个模型收敛。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市钱塘区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励