华南理工大学吴永贤获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利基于领域泛化学习的图像分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116452862B 。
龙图腾网通过国家知识产权局官网在2025-12-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310325449.4,技术领域涉及:G06V10/764;该发明授权基于领域泛化学习的图像分类方法是由吴永贤;张琴;钟灿琨;张建军设计研发完成,并于2023-03-30向国家知识产权局提交的专利申请。
本基于领域泛化学习的图像分类方法在说明书摘要公布了:本发明公开了一种基于领域泛化学习的图像分类方法,包括:将目标域数据和源域数据与两者对应的标签信息记录在目标域数据集DT和源域数据集DS中;使用卷积神经网络MobileV2构建领域鉴别器,生成领域分数;对领域泛化网络模型中基本ResNet网络进行改进,并构建混合域注意力;使用局部最大灵敏度代替局部随机灵敏度;构建损失函数,训练并优化网络模型;将训练好的领域泛化网络模型在目标域数据集DT上计算图像分类准确率,评判当前网络模型的图像分类能力和泛化能力。本发明缓解了深度领域泛化方法普遍出现的由于虚假的相关性带来的负迁移问题,增强网络模型泛化能力,提高了图像分类准确率,进一步可以实现更灵活和精确的下游应用。
本发明授权基于领域泛化学习的图像分类方法在权利要求书中公布了:1.基于领域泛化学习的图像分类方法,其特征在于,包括以下步骤: 1将图像数据集中所有图像数据预处理为张量格式,选择预处理后的数据集中一个域作为目标域数据,剩余所有域作为源域数据,将目标域数据和源域数据与两者的对应真实标签信息记录在目标域数据集DT和源域数据集DS中,其中,T表示目标域,S表示源域,真实标签信息包括当前数据的领域类别信息、语义类别信息和拼图排列类别信息; 2使用轻量级的卷积神经网络MobileV2构建领域泛化网络模型中的领域鉴别器,依据步骤1中得到源域数据集DS训练卷积神经网络MobileV2,并根据源域数据集DS中所有数据的领域类别信息生成领域分数Wdc,其中,Wdc是由领域鉴别器提取得到的二维向量数据; 3对领域泛化网络模型中的基本ResNet网络进行改进,对基本ResNet网络进行三部分改进,第一部分是在基本ResNet网络的第一层卷积层conv1前加入领域鉴别器;第二部分是构建ResNet网络的输出层,分别是语义类别输出、领域类别输出和拼图排列类别输出;第三部分是在残差模块前后分别加入混合域注意力机制,具体为改进的CBAM注意力机制;对CBAM注意力机制的改进是将领域分数分别输入到通道注意力、空间注意力两个模块中,其中,所述通道注意力和空间注意力是CBAM的两个模块;将领域分数进行不同的维度转换后分别与CBAM的两个模块中提取得到的特征进行融合操作; 4改进泛化误差模型LGEM,使用局部最大敏感度代替局部随机敏感度;所述敏感度是一种度量,测量训练样本zj与其Q邻域范围内不可见样本zu之间的输出差异;其中Q是一个超参数,Q邻域是超立方体;zj是源域数据集DS中第j个训练样本,zu是zj加了扰动后生成的样本且zu在zj的邻域范围内; 5基于领域鉴别器和改进ResNet网络构建一种新型的领域泛化网络模型并训练,基于改进ResNet网络的输出层构建损失函数,并在损失函数中引入步骤4中获得的局部最大敏感度,训练并优化该领域泛化网络模型; 6利用训练好的领域泛化网络模型在目标域数据集DT上计算图像分类准确率,用来评判当前领域泛化网络模型的图像分类能力和泛化能力。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励