Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中南大学韩锟获国家专利权

中南大学韩锟获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中南大学申请的专利一种复杂场景下的安全帽佩戴检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114419659B

龙图腾网通过国家知识产权局官网在2025-12-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111514599.7,技术领域涉及:G06V40/10;该发明授权一种复杂场景下的安全帽佩戴检测方法是由韩锟;曾向东;肖友刚;李蔚设计研发完成,并于2021-12-13向国家知识产权局提交的专利申请。

一种复杂场景下的安全帽佩戴检测方法在说明书摘要公布了:本发明公开了一种基于多尺度特征的安全帽佩戴检测方法,该方法包含:在YOLOv5网络骨干部分引入注意力机制,减少网络中有效信息在传递中的损失;在YOLOv5网络颈部和头部增加第四个检测尺度104×104,增强对小目标的检测能力;在大型数据集上对CSPDarkNet53模型进行预训练后,迁移学习其特征提取能力至安全帽佩戴检测模型,缓解数据集不充足的问题;根据安全帽佩戴检测框推断人体边界框,提取未佩戴安全帽人员的骨架关键点,设计步态识别模块,识别未佩戴安全帽人员身份;本发明在复杂场景下利用多尺度特征提高了安全帽佩戴检测模型的准确率,并且通过融合步态识别算法实现了未佩戴安全帽人员身份的确认。

本发明授权一种复杂场景下的安全帽佩戴检测方法在权利要求书中公布了:1.一种复杂场景下的安全帽佩戴检测方法,其特征在于,该方法包括: 步骤A,根据复杂场景下检测目标在画面中尺寸变化大的特点,设计安全帽检测的四个特征尺度; 在YOLOv5网络检测颈部和头部的基础上增加感受野更小的第四个检测尺度,增强对小目标的检测效果,增加后四个检测尺度分别为13×13,26×26,52×52,104×104,相比于原来的三个尺度具有更大的尺度检测范围; YOLOv5训练时,其边界框回归的目标函数与真实值Bgt和预测值B有关,其计算如公式1所示, 其中d为真实值的中心Cgt和预测框的中心c之间的距离,1为真实值和预测框最小外接矩形的对角线长度,IoU为两个矩形框的交并比,其计算如公式2所示, α为权重参数,其定义如公式3所示, v为纵横比一致性,根据真实值和预测框的宽wgt,w和高hgt,h计算,如公式4所示, 根据损失函数计算公式可以确定生成更多合适的预测框能够提升网络的训练效果; 步骤B,在YOLOv5骨干网络中引入注意力机制,设计改进后的YOLOv5网络,减少低层有效信息提取到高层时的损失; 引入第四个检测尺度会导致网络层数加深,低层信息向高层信息传递时会产生损失,因此引入注意力机制减少信息损失,提高传输效率,同时使网络可以注意到图像中的小目标; 对于卷积映射Ftr:X→U,X∈RH′×W′×C′,U∈RH×W×C,v表示第c个卷积核,那么输出U=[u,u,…,u],如式5所示, =v*X5 引入的注意力机制包括挤压操作和激发操作,挤压操作将一个通道的空间特征编码为一个全局特征,采用全局平均池化实现,如公式6所示, 而激发操作采取sigmoidσ激活函数如式7所示, s=Fexz,W=σgz,W=σWδWz7 其中δ为RELU激活函数,r为降维比例;最后将学习到的各通道权重赋予原始特征得到最后输出如公式8所示, x=s·u8 注意力机制让模型更加关注信息量最大的通道特征,抑制不重要的通道特征,引入了2个SE模块,引入位置为骨干网络中第二个和第三个卷积拼接操作前; 步骤C,从精度和速度两方面设计评价指标评价检测效果,对检测效果较差的类别进行针对性数据扩充和CutMix数据增强; 为了对比模型改进带来的提升,将改进后的模型和改进前的模型在同一训练集和测试集上进行训练和测试,并从精度和速度两个方向进行评估,在精度方面计算指标精确率precision,召回率recall并绘制PR曲线,计算平均精度均值MAP,其计算公式如公式9,公式10和公式11所示, 其中真正TP是被模型正确预测的目标数目,假正FN是将其它物体错误的预测为目标的数目,假负FN为没有被模型正确预测出的真值的数量;n为类别数目,对于每一类,平均精度APi为相应PR曲线下的面积;在速度方面则以在相同测试集上的平均检测时间为指标;评估完成后对检测效果较差的类别进行针对性数据扩充和CutMix数据增强; 令x∈RW×H×C和y分别代表训练目标和其标签,则对于A和B两张图片CutMix数据增强操作如公式12和公式13所示, 其中M∈{0,1}W×H为一个由0和1标记的掩码矩阵,其与图像尺寸一致,0为需要裁剪的区域,1为需要保留的区域;⊙为逐元素相乘,λ为服从0,1的均匀分布; 数据增强操作可以使模型专注于目标较难区分的特征,提高训练效率; 步骤D,基于改进后的YOLOv5,迁移学习其骨干网络CSPDarkNet53模型的特征提取能力,实现复杂场景下的安全帽识别; 在改进后的模型可以在安全帽检测数据集上取得较好的结果后,迁移学习其他相似检测任务的模型可以进一步提升安全帽检测模型的泛化能力, 迁移学习一般化定义如下: 条件:给定一个源域D和源域上的学习任务T,目标域D和目标域上的学习任务T 目标:利用D和T学习目标域上的预测函数f· 限制条件:D≠D,T≠T 迁移学习在MSCOCO等大型数据集上进行初步训练并完成相应检测任务的骨干网络CSPDarkNet53,冻结其所有的卷积层以及分类前的全连接层,并移植到改进后的模型中,在步骤C增强的数据集上重新进行训练,得到利用多尺度特征的安全帽佩戴检测模型,在施工现场对工人进行安全帽佩戴状态检测,输出检测结果,结果有两类,未佩戴安全帽person,佩戴安全帽hat; 步骤E,基于改进后的YOLOv5的检测结果,设计步态识别算法模块,实现未佩戴安全帽人员的身份识别: 为了减少计算量,仅对person类检测结果采取步态识别,对于检测框的左上角坐标x1,y1和右下角坐标x2,y2,可以通过计算出头部的宽度和高度推断出未佩戴安全帽的人体边界框,如公式14-19所示, h=y2-y114 w=x2-x115 x3=max0,x1-2×w16 y3=min0,y1-h17 x4=minwidth,x2+2×w18 y4=minheight,y2+5×h19 其中width和height为图片的宽和高,x3,y3,x4,y4为人体边界框的左上角和右下角坐标;在边界框里利用HRNet提取17个骨架关键点,并将其组成的骨架关键点步态序列输入到步态识别网络GaitGraph中进行识别; 人体的骨架图可以在结构上可以被表示为G=V,ε,其中V={v1,…,vn}为表示关节的N个节点的集合,ε表示由邻接矩阵表示的骨骼的边的集合,邻接矩阵可表示为A∈RN×N,当vi到vj有边连接时,Ai,j=1,否则Aj,j=0,因为G为非定向的,所以A为对称矩阵; 人体的步态在特征上可以被表示为X={xt,n∈Rc|t,n∈Z,1≤t≤T,1≤n≤N},对于一个特征张量X∈RT×N×C,其中xt,n=Xt,n为节点vn在时间t的C维特征向量,总共有T帧,Xt∈RN×C为时间t时,姿态特征X在C维为对应的2D坐标及其置信度,N为节点的数量; 因此,网络l层的可学习权重矩阵可以表示为其在时间t可被用于特征的图卷积神经网络层更新计算如下: 其中为加上了单位矩阵以保证节点自身特征的骨架图,为的对角矩阵,σ·为激活函数; 步态识别网络由ResGCN模块组成,该模块由一个图卷积、一个普通的时域二维卷积和带有瓶颈结构的残差连接组成;整个网络由多个ResGCN模块按顺序排列组成,输出层由一个平均池化层和一个产生特征向量的全连接层组成,使用监督对比损失作为损失函数,网络最终输出结果为识别目标对应的编码及其对应的特征向量。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中南大学,其通讯地址为:410083 湖南省长沙市岳麓区麓山南路932号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。