中国科学技术大学孙晓艳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学技术大学申请的专利自然场景对象检测方法、系统、设备存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119007069B 。
龙图腾网通过国家知识产权局官网在2025-11-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411051936.7,技术领域涉及:G06V20/40;该发明授权自然场景对象检测方法、系统、设备存储介质是由孙晓艳;贺子龙;张越一设计研发完成,并于2024-08-01向国家知识产权局提交的专利申请。
本自然场景对象检测方法、系统、设备存储介质在说明书摘要公布了:本发明公开了一种自然场景对象检测方法、系统、设备存储介质,它是一个用于自然场景下对象检测任务的视觉语言大模型微调训练方案,利用上下文学习策略和微调技术,保证自然场景文本检测准确率同时,展现出更快的训练速度和更少的服务器资源消耗;提出了视觉特征和文本特征交错技术,结合上下文学习策略,使语言大模型充分理解文本信息和视觉信息,并进行有效交互,根据上下问,模型充分学习文本与图像中所描述对象之间的联系,获得更加精确的预测结果;此外,采用监督训练方式进行训练,将视觉信息和文本信息有效结合,提高了模型预测的准确度。
本发明授权自然场景对象检测方法、系统、设备存储介质在权利要求书中公布了:1.一种自然场景对象检测方法,其特征在于,包括: 获取自然场景对象位置信息的数据集,根据上下文学习策略对数据集进行重新处理组织,获得训练数据集;其中,所述训练数据集中的每一项数据包含多个图像,以及每一图像对应的问题文本与标签; 基于视觉语言大模型构建自然场景对象检测模型,包括:视觉特征提取模块、文本特征提取模块、文本与视觉特征交叉层与语言大模型; 使用训练数据集训练所述自然场景对象检测模型,包括:通过视觉特征提取模块从每一项数据中的图像中提取视觉特征,通过文本特征提取模块从每一项数据中的第1至倒数第2个图像对应的问题文本与标签中,以及最后1个图像的问题文本中提取出文本特征;通过文本与视觉特征交叉层将视觉特征与文本特征进行特征交错,再经过语言大模型预测出每一项数据的最后1个图像中的对象位置信息;结合预测出的每一项数据的最后1个图像中的对象位置信息与对应的标签,计算损失函数,并对所述自然场景对象检测模型进行训练; 输入图像及对应的问题文本至训练后的自然场景对象检测模型,获得图像中的对象位置信息; 其中,所述获取自然场景对象位置信息的数据集,根据上下文学习策略对数据集进行重新处理组织,获得训练数据集包括: 获取自然场景对象位置信息的数据集,每一项数据至少包含图像与对应的标签,所述标签包含图像中真实的对象位置信息; 选择T个图像及对应的标签,表示为:Y={y1,y2,...,yT},X={x1,x2,...,xT},利用标签并基于选定的语言大模型生成对应的问题文本,表示为:Q={q1,q2,...,qT};其中,每一个y表示一个图像,每一个x表示图像对应的标签,每一个q表示标签对应的问题文本,下标为图像序号,Y、X、Q分别表示图像、标签、问题文本构成的集合;最终由Y、X、Q构成训练数据集中一项数据,一项数据中,前T-1个图像为上下文学习策略的样本,由自然场景对象检测模型通过前T-1个图像及其问题文本与标签,以及第T个图像及其问题文本,预测第T个图像中的对象位置信息,并由第T个图像的标签进行监督; 采用图文交错策略将数据的问题文本、图像及标签相互交错设置; 不断进行数据的重新处理组织,最终,获得由多项数据组成的训练数据集; 所述通过文本与视觉特征交叉层将视觉特征与文本特征进行特征交错包括: 在文本特征中添加的标记图像信息的符号将视觉特征ftp与文本特征pt进行特征联合,将视觉特征插入文本特征的指定位置,表示为: 其中,Ftcat表示进行特征交错后的数据特征,表示第t项数据中第i个图像的视觉特征,T表示一项数据中包含的图像数目,pt,tag表示文本特征中进行图像标记的位置,通过上式将图像特征添加到文本特征对应位置完成视觉与文本的特征交错。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学技术大学,其通讯地址为:230026 安徽省合肥市包河区金寨路96号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励