厦门大学曹刘娟获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉厦门大学申请的专利基于自适应数据选取与文本融合的半监督伪装目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120318661B 。
龙图腾网通过国家知识产权局官网在2025-09-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510788597.9,技术领域涉及:G06V20/00;该发明授权基于自适应数据选取与文本融合的半监督伪装目标检测方法是由曹刘娟;张声传;颜玮琦;陈绿海;张岩设计研发完成,并于2025-06-13向国家知识产权局提交的专利申请。
本基于自适应数据选取与文本融合的半监督伪装目标检测方法在说明书摘要公布了:本发明公开一种基于自适应数据选取与文本融合的半监督伪装目标检测方法,利用自适应数据增强技术和文本融合策略,在仅需少量人工标注数据的条件下进行模型训练,引导模型学习伪装目标的深层特征,实现对与背景极为相似的伪装目标的精确分割,并生成高质量的分割掩码。具体地,本发明具有自适应数据增强模块和自适应数据选择模块,通过对抗增强和采样策略,自适应的选取有价值样本进行标注;以及文本融合模块,通过结合伪装知识和视觉‑文本交互,实现对有标签数据的充分利用。实验结果表明,本发明提出的方法超越了已有的全部半监督伪装目标检测方法,有效的证明了其有效性。
本发明授权基于自适应数据选取与文本融合的半监督伪装目标检测方法在权利要求书中公布了:1.一种基于自适应数据选取与文本融合的半监督伪装目标检测方法,其特征在于包含一个自适应数据增强模块、一个自适应数据选择模块和一个文本融合模块,并包括以下步骤: 步骤1、使用自适应数据选择模块对无标注图像进行价值评分,根据预设的评分阈值选出适合模型训练的高价值图片进行人工标注,构建包含图像级指向性文本与真实图像标签的已标注数据集; 步骤2、首先对待检测的人工标注的图像进行预处理,然后使用自适应数据增强模块获得自适应数据增强的图像; 步骤3、将自适应数据增强的图像输入教师-学生框架,由视觉特征提取主干网络提取图像深度特征;教师-学生框架包括教师模型、学生模型; 步骤4、将图像深度特征与图像级指向性文本输入文本融合模块以生成文本-视觉融合特征,并由解码器生成教师模型预测结果与学生模型预测结果; 步骤5、使用真实图像标签与学生模型预测结果计算得到整个网络的总损失,然后通过反向传播调整视觉特征提取主干网络、自适应数据增强模块、文本融合模块和解码器的参数; 所述步骤4具体包含以下步骤: 步骤4.1使用指向性文本编码器对图像级指向性文本进行编码,获得文本特征;指向性文本编码器使用参数冻结的预训练CLIP文本编码器,该文本编码器不参与模型训练,仅用于对文本信息进行编码;上标指代Text;下标指代Labeled,下标表示有标注数据的索引; 步骤4.2对于图像深度特征,使用线索注意力机制生成线索注意力查询: ; ; ; 其中,下标表示多层级特征中的第个特征;表示线索查询向量;表示可学习的查询;表示线索键向量;表示线索值向量;、和表示线性投影权重;表示线索注意力图;表示的转置;表示注意力头的维度;表示softmax激活函数; 步骤4.3对线索注意力查询与码本计算余弦相似度分数: ; 其中,表示余弦相似度;表示码本中的元素;表示一组存储类别相关的信息的特征向量的码本; 步骤4.4基于余弦相似度分数对码本进行加权聚合,生成线索向量: ; 其中,表示计算集合元素个数; 步骤4.5将线索向量插入文本特征中,获得增强文本特征: ; 其中,表示拼接操作; 步骤4.6对增强文本特征和图像深度特征使用交叉注意力机制获得文本-视觉融合特征: ; 其中,表示交叉注意力; 步骤4.7将文本-视觉融合特征输入解码器,生成教师模型预测结果与学生模型预测结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人厦门大学,其通讯地址为:361000 福建省厦门市思明南路422号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。