湖南大学高铭获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南大学申请的专利一种视觉语言目标检测数据自动标注方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120510471B 。
龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511010793.X,技术领域涉及:G06F16/58;该发明授权一种视觉语言目标检测数据自动标注方法及系统是由高铭;王胤霖;杨泽宇;边有钢;秦洪懋;胡满江;李洋;曾利设计研发完成,并于2025-07-22向国家知识产权局提交的专利申请。
本一种视觉语言目标检测数据自动标注方法及系统在说明书摘要公布了:本发明提供一种视觉语言目标检测数据自动标注方法及系统,属于视觉检测技术领域。本发明基于n‑gram算法通过自定义提示模板筛选图像,为用户提供了个性化的快速图像筛选方式,用户可根据自己的需求定义提示,从而快速的选择相关图像,并增强了搜索结果的相关性,在区域级与图像级层面联合过滤标注图像,解决开放世界目标检测模型可能存在的误检问题,提高了图像的标注质量。本发明可解决人工数据标注效率低下且成本高昂问题,能够快速高效的实现多模态目标检测数据集的构建。
本发明授权一种视觉语言目标检测数据自动标注方法及系统在权利要求书中公布了:1.一种视觉语言目标检测数据自动标注方法,其特征在于,包括如下步骤: 步骤S1,提供待标注的图像数据集,利用视觉语言多模态文本生成大模型生成图像数据集中每个图像的文本描述; 步骤S2,自定义名词提示模板,利用n-gram算法将每个图像的文本描述拆分为连续的n-gram序列,从名词提示模板中抽取目标词汇,判断n-gram序列中是否出现目标词汇,若是,则保留该图像及其对应的文本描述,并利用CLIP模型计算该图像及其对应文本描述的相似度,将其作为图像的原始分类置信度;反之,则删除该图像及其对应的文本描述,遍历图像数据集中的所有图像,对所述图像数据集进行筛选,得到与目标词汇相匹配的图像子集; 步骤S3,将与目标词汇相匹配的图像子集输入到开放世界目标检测模型中进行图像伪标注,输出边界框、边界框的类别以及边界框的原始置信度; 步骤S4,根据边界框的尺寸对每张图像进行裁剪得到区域图像,利用CLIP模型计算区域图像及其对应类别名词的相似度,将其作为修正因子,对每个边界框的原始置信度进行修正; 步骤S5,利用高斯加权的柔性化非极大值抑制算法对边界框进行过滤,去除重复的边界框,具体包括:计算边界框的相对置信度,设定置信度阈值对边界框进行筛选,保留相对置信度高于置信度阈值的边界框; 步骤S6,计算每张图像上所有边界框相对置信度的均值,作为区域级分类置信度,将图像的原始分类置信度作为图像级分类置信度,计算区域级分类置信度和图像级分类置信度的几何平均数,得到图像的最终分类置信度,设定置信度阈值对图像进行筛选,保留最终分类置信度大于置信度阈值的图像,并将其对应的目标类别作为图像的标注。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励