长春理工大学权龙杰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉长春理工大学申请的专利一种计算机视觉的语义分割对抗性训练方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116645667B 。
龙图腾网通过国家知识产权局官网在2025-07-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310659739.2,技术领域涉及:G06V20/70;该发明授权一种计算机视觉的语义分割对抗性训练方法是由权龙杰;黄丹丹;刘智;高凯设计研发完成,并于2023-06-05向国家知识产权局提交的专利申请。
本一种计算机视觉的语义分割对抗性训练方法在说明书摘要公布了:本发明涉及对抗性训练方法技术领域,具体为一种计算机视觉的语义分割对抗性训练方法,包括以下步骤,S1:pixel‑level预训练;S2:基于pixel‑level预训练流程,建立训练模型;S3:模型拓展交互训练。本发明中,在图像裁剪训练方面,其训练过程是基于现有模型进行进一步调优处理,训练过程所消耗单位时间较少,能够有效提升运算效率,且在迁移到下游的分割任务时,基于查询编码器和键编码器确保其泛化性,无需再次设置weightdecay,在训练运算过程中,计算每个pixel与其他pixel的相似度,作为权重项,对变换后的X变量加权求和,获得Y变量,生成Y变量与X′变量的consistency约束,并在此基础上,进行模型拓展交互训练,进一步提升模型泛化性以及训练效果。
本发明授权一种计算机视觉的语义分割对抗性训练方法在权利要求书中公布了:1.一种计算机视觉的语义分割对抗性训练方法,其特征在于,包括以下步骤: S1:pixel-level预训练,所述S1的步骤具体为: S110:通过图像裁剪获得第一截图和第二截图,并进行粘贴; S120:比对像素致密对比损耗和实例对比损失,并将样本导入屏蔽池,具体包括: S121:引入查询编码器和键编码器,并通过查询编码器更新键编码器; S122:将第一截图的粘贴结果作为样本一,第二截图的粘贴结果作为样本二; S123:查询比对样本一和样本二的像素致密对比损耗,所述像素致密对比损耗的计算公式采用:,其中,E为像素致密对比损耗记录结果,E1为单位时间内的总能耗,W1为单位时间内样本一和样本二成型总质量; S124:将样本一与样本二引入屏蔽池; S125:在屏蔽池中查询比对样本一和样本二的实例对比损失,所述实例对比损失采用对比损失函数,具体是通过随机的数据增强模块在图像裁剪的执行过程中,将执行结果作为增强图像,并基于查询编码器和键编码器提取增强图像对应的样本一和样本二,投影头使用一组小的辅助网络表示进行进一步的变换,基于实例映射函数从投影帧产生实例,对比损失函数将正样本表示结果尽可能接近以及确保与负样本的差异; S2:基于pixel-level预训练流程,建立训练模型,所述S2的步骤具体为: S220:基于训练模型,对S1整体步骤流程进行自动化记录,具体包括: S221:在输入阶段,抽调并增强样本一和样本二; S222:获取样本一的骨架和投影数据,生成X变量; S223:获取样本二的动量骨架和投影数据,生成X′变量; S224:记录S123中像素致密对比损耗和S125中实例对比损失; S225:通过图像传输模块传输,并计算每个pixel与其他pixel的相似度,作为权重项,对变换后的X变量加权求和,获得Y变量,生成Y变量与X′变量的consistency约束; S230:封装S220记录项,存储训练模型文件; S3:模型拓展交互训练,所述模型拓展交互训练的步骤包括:基于调用的训练模型文件生成新的训练模型,基于所获取Y变量数值比对,建立新的训练模型与所调用训练模型文件关联,即基于Y变量数值浓稠度作为参照降序排列,并生成关联索引。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春理工大学,其通讯地址为:130000 吉林省长春市朝阳区卫星路7089号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。