湖南大学刘敏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南大学申请的专利一种基于多尺度注意力和网络架构搜索的目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120747115B 。
龙图腾网通过国家知识产权局官网在2025-11-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511263029.3,技术领域涉及:G06T7/00;该发明授权一种基于多尺度注意力和网络架构搜索的目标检测方法是由刘敏;黄嘉;唐毅;王耀南设计研发完成,并于2025-09-05向国家知识产权局提交的专利申请。
本一种基于多尺度注意力和网络架构搜索的目标检测方法在说明书摘要公布了:本申请公开了一种基于多尺度注意力和网络架构搜索的目标检测方法,通过引入深度引导自适应特征提取和多尺度上下文语境融合注意力机制,本发明能够动态调整特征提取策略,优化网络架构设计,从而在复杂场景下显著提升目标检测的准确性和鲁棒性;通过多尺度情境融合注意力机制,能够在全局和局部两个层面上建模图像区域之间的空间关系,增强了模型对复杂场景的理解能力,进一步提升了目标检测的精度;利用神经网络架构搜索技术,能够自动探索最优的网络架构,避免了传统手工设计网络架构的局限性,NAS框架动态优化特征提取策略,在提升检测性能的同时,最大限度地降低了计算成本,在实际应用中更加高效和实用,提高了模型的适应性和性能。
本发明授权一种基于多尺度注意力和网络架构搜索的目标检测方法在权利要求书中公布了:1.一种基于多尺度注意力和网络架构搜索的目标检测方法,其特征在于,包括如下步骤: S1:获取输入的人体图像,通过主干网络对所述人体图像进行特征提取,获得多尺度特征图和多尺度特征图的视觉特征及深度特征; S2:将所述视觉特征及所述深度特征输入多尺度情境融合编码器进行多尺度情境融合,获得多尺度情境融合结果; S21:对所述人体图像进行图块划分与标记; S22:基于Transformer的多层自注意力模块对划分与标记后的图块进行全局依赖关系建模,获得所述人体图像的全局依赖关系; 所述全局依赖关系建模包括: 首先将图块划分与标记:将输入图像I划分为P×P个图块,每个图块作为一个独立的标记,令表示为分块i的标记; 分块的序列表示为,这些分块通过一个基于Transformer的多层自注意力模块来建模全局依赖关系,表示如下: ; 其中,A表示基于自耦变压器的自注意力操作,H和W表示输入图像I的高度和宽度; S23:基于多尺度情境融合编码器对划分与标记后的图块及其周围的图块进行特征聚合,获得局部情境融合结果; 其中,所述全局依赖关系和所述局部情境融合结果构成所述多尺度情境融合结果; 局部情境融合包括: 对于局部精化,多尺度情境融合注意力从一个图像的中心块和它的周围块聚合特征,其中表示围绕中心块的相邻分块的集合表示为: ; 其中,表示图像I划分为P×P个图块按序列排序的集合;表示权重,通过如下公式来计算: ; 基于方差的权重分配:为了保证特征融合的鲁棒性,引入了基于方差的权重分配,计算块的特征方差为: ; S3:通过深度预测模块对所述多尺度情境融合结果进行处理,生成全景深度图; S4:将生成的全景深度图划分为多个深度范围,通过多个网络搜索架构对所述多个深度范围进行特征提取及搜索,获得多个目标搜索结果; S5:基于MLP检测方法计算所述多个目标搜索结果对应的预测损失; S6:筛选出最小预测损失对应的网络搜索架构搜索出的目标搜索结果,作为最终目标并输出。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励