北京中科金财科技股份有限公司王惠获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京中科金财科技股份有限公司申请的专利一种基于多尺度特征融合的安全帽佩戴识别方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120339592B 。
龙图腾网通过国家知识产权局官网在2025-11-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510489708.6,技术领域涉及:G06V10/25;该发明授权一种基于多尺度特征融合的安全帽佩戴识别方法及系统是由王惠;杨京雨;朱烨东设计研发完成,并于2025-04-18向国家知识产权局提交的专利申请。
本一种基于多尺度特征融合的安全帽佩戴识别方法及系统在说明书摘要公布了:本发明公开了一种基于多尺度特征融合的安全帽佩戴识别方法及系统,方法包括目标检测模型通过全景特征金字塔网络对不同尺度的特征图进行融合;目标检测模型采用双层目标增强机制对融合后的特征图进行加权操作,以将注意力集中在目标区域;在目标检测模型中引入多尺度检测头,多个检测头通过不同尺度的锚框和特征图处理不同大小的目标;为目标检测模型构造总回归损失函数,模型训练的过程中利用优化方法调整参数,以最小化总回归损失函数,获取训练好的目标检测模型。优点是:有效提高多尺度目标的检测能力,增强对目标区域的专注力,减少复杂背景下的误识别和漏识别,从而在安全帽佩戴状态识别中取得更高的准确性和鲁棒性。
本发明授权一种基于多尺度特征融合的安全帽佩戴识别方法及系统在权利要求书中公布了:1.一种基于多尺度特征融合的安全帽佩戴识别方法,其特征在于:包括如下步骤, S1、多尺度特征融合:目标检测模型通过全景特征金字塔网络对不同尺度的特征图进行拼接和加权操作,以将不同尺度的特征图进行融合; 全景特征金字塔网络通过对多个尺度的特征图进行拼接和加权求和来实现多尺度信息的融合,计算公式为, PFPNi=concatWi·Fi,∑aj·Fj 其中,PFPNi为多尺度信息融合结果;Fi和Fj分别为第i层和第j层的特征图;Wi为第i层特征图的加权矩阵,用于对第i层的特征图进行加权操作;aj为第j层特征图的加权系数;∑ai·Fj为对所有尺度特征图Fj进行加权求和;concat为将多个特征图沿通道维度进行拼接操作; 为全景特征金字塔网络构造损失函数,基于损失函数通过反向传播的方式训练全景特征金字塔网络,从而不断调整特征图的加权矩阵Wi和特征图的加权系数aj; S2、双层目标增强:目标检测模型采用基于空间注意力机制和通道注意力机制构造的双层目标增强机制对融合后的特征图进行加权操作,以将注意力集中在目标区域;步骤S2具体包括如下内容, S21、空间注意力机制根据图像中不同位置的重要性,对特征图中的每个空间位置进行加权;计算公式为, Attentionspatial=σConvF 其中,Attentionspatial为通过空间注意力机制得到的空间加权系数;F为输入的特征图;ConvF为通过卷积操作从特征图中提取的空间加权系数;σ为激活函数,用于将通过卷积操作从特征图中提取的空间加权系数映射到[0,1]区间; S22、通道注意力机制通过对特征图的各个通道进行加权,从而强调不同通道在特定任务中的重要性;计算公式为, Attentionchannel=σFCF 其中,Attentionchannel为通过通道注意力机制得到的通道加权系数;FCF为通过全连接层从特征图中提取的每个通道的加权系数;σ为激活函数,用于将通过全连接层从特征图中提取的每个通道的加权系数映射到[0,1]区间; S23、空间注意力和通道注意力分别对特征图进行加权后,对两者的加权结果进行融合,以增强网络对目标区域的专注能力;计算公式为, Attentionfused=Attentionspatial·Attentionchannel·F 其中,Attentionfused为最终的融合结果; 为双层目标增强机制构造损失函数,基于损失函数通过反向传播的方式训练双层目标增强机制,从而不断调整空间的加权系数Attentionspatial和通道的加权系数Attentionchannel; S3、多尺度检测头引入:在目标检测模型中引入多尺度检测头,多个检测头通过不同尺度的锚框和特征图处理不同大小的目标,以优化目标检测的准确度; 多尺度检测头通过在网络中增加不同尺度的锚框,并针对每个尺度使用不同的特征图进行处理,以优化目标的准确度;计算公式为, Detectionoutput=∑Anchort·Feature_mapt 其中,Detectionoutput为多尺度检测头的处理结果;Anchori为第t个尺度的锚框;Feature_mapt为第t个尺度的特征图; S4、回归损失函数优化:利用位置回归损失函数和类别回归损失函数为目标检测模型构造总回归损失函数,在目标检测模型训练的过程中利用优化方法不断调整参数,以最小化总回归损失函数,从而获取训练好的目标检测模型; 通过对位置回归损失函数和类别回归损失函数进行加权构造总回归损失函数,计算公式为, Ltotal=λ1·Lbbox+λ2·Lclass Lbbox=∑1-IOUpredict,groundtruth Lclass=-∑y·logp+1-y·log1-p 其中,Ltotal为总回归损失函数;Lbbox和Lclass分别为位置回归损失函数和类别回归损失函数;λ1和λ2分别为位置回归损失函数和类别回归损失函数的权重系数;IOU为用于衡量预测框与真实框之间重叠程度的交并比;predict为预测框;groundtruth为真实框;Area_ofIntersection为预测框与真实框交集的面积;Area_ofUnion为预测框与真实框并集的面积;y为真实的类别标签,其为1时表示目标属于某个类别,其为0时表示目标不属于该类别;p为目标检测模型对目标属于某个类别的预测概率。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京中科金财科技股份有限公司,其通讯地址为:100085 北京市海淀区学清路9号汇智大厦11层2单元1201B室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励