东南大学;公安部第三研究所蒋睿获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉东南大学;公安部第三研究所申请的专利一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119600670B 。
龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411811112.5,技术领域涉及:G06V40/16;该发明授权一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法是由蒋睿;侯远旸;陈广勇;裴蓓设计研发完成,并于2024-12-10向国家知识产权局提交的专利申请。
本一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法在说明书摘要公布了:本发明涉及一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法,属于人工智能安全应用领域。本发明通过构建高样本容量、高分辨率的人脸口罩检测图片数据集,提高了检测模型的精度和泛化性;通过采用自定义卷积模块改进了原始YOLOv8目标检测模型,提高了检测模型的卷积效率,增强了模型的特征提取能力,并降低了计算复杂度;通过采用自定义模块和损失函数改进原始YOLOv8人体姿态估计模型,增强了模型的特征融合能力和目标定位能力;通过自主设计基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法,实现对待检测图片进行高精度、高鲁棒性、高实时性的人脸口罩检测。本发明可以实现实时人脸口罩检测,能够防御真实检测场景下的遮挡伪冒攻击,同时设计自定义的数据集和模型网络结构,使得本发明具有良好的检测精度和检测实时性。
本发明授权一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法在权利要求书中公布了:1.一种基于YOLOv8抗遮挡伪冒攻击的人脸口罩检测方法,其特征在于:采用的检测系统包括人脸口罩数据集构建模块1,基于YOLOv8的人脸口罩检测模型搭建模块2,基于YOLOv8的人体姿态估计模型搭建模块3,模型训练模块4,基于YOLOv8抗遮挡伪冒攻击人脸口罩检测模块5,以及通用图像采集模块,所述的人脸口罩数据集构建模块1,首先基于开源口罩检测图片数据集,采用分辨率计算进行筛选过滤,随后基于labelme软件进行手动标签标注,最后,把这些图片数据分为训练集和验证集两部分,传输至人脸口罩检测模型训练模块4; 所述的基于YOLOv8的人脸口罩检测模型搭建模块2,针对初始YOLOv8目标检测模型,首先通过自定义残差卷积结构,改进YOLOv8目标检测模型网络的颈部网络,随后通过自定义解耦头结构,改进原YOLOv8目标检测模型网络的检测头网络,最后通过自定义的基于注意力机制的卷积结构,改进YOLOv8目标检测模型网络的骨干网络,得到待训练的人脸口罩检测模型,并将该模型及参数传输至人脸口罩检测模型训练模块4; 所述的基于YOLOv8的人体姿态估计模型搭建模块3,针对初始YOLOv8人体姿态估计模型,首先通过自定义特征融合结构,改进YOLOv8人体姿态估计模型网络的颈部网络,最后通过自定义定位损失函数,改进原YOLOv8人体姿态估计模型网络定位损失函数,得到待训练的人体姿态估计模型,并将该模型及参数传输至人脸口罩检测模型训练模块4; 所述的模型训练模块4,首先接收人脸口罩数据集构建模块1中的训练集数据,运用基于YOLOv8的人脸口罩检测模型搭建模块2中的目标检测模型网络,进行数据训练,得到人脸口罩检测模型;接着采用开源的COCO‑Pose数据集,运用基于YOLOv8的人体姿态估计模型搭建模块3中的人体姿态估计模型网络,进行数据训练,并将训练好的人脸口罩检测模型和人体姿态估计模型传输至基于YOLOv8抗遮挡伪冒攻击人脸口罩检测模块5; 所述的基于YOLOv8抗遮挡伪冒攻击人脸口罩检测模块5,首先从模型训练模块4接收人脸口罩检测模型和人体姿态估计模型,检测开始后,从通用图像采集模块获取待检测图片,随后对该图片进行抗遮挡伪冒攻击人脸口罩检测,检测过程分为两步,第一步是基于人脸口罩检测模型的人脸口罩检测,第二步是基于人体姿态估计的模型的抗遮挡伪冒检测,检测结束后,将检测结果返回至通用图像采集模块; 基于YOLOv8的人脸口罩检测模型搭建模块2改进和构建基于YOLOv8的人脸口罩检测模型,包括卷积优化模块2‑1,检测头网络加速模块2‑2和特征提取增强模块2‑3; 所述的卷积优化模块2‑1针对原始的YOLOv8目标检测模型,使用自定义的残差卷积结构改进原YOLOv8颈部网络中的C2f模块,自定义的残差卷积结构为:当输入特征图为Fin∈Fin首先经过一个1×1的卷积,然后通过通道平均分割得到两条分支随后对FP1前的连续通道进行卷积操作,再经过SILU激活函数和后续的两个1×1卷积得到FFN1随后经过前的连续通道进行卷积操作,SILU激活函数和后续的两个1×1卷积得到FFN2,把FP1,FP2,FFN1,FFN2四部分特征进行通道维度拼接得到最后使用1×1卷积,获得输出由此得到改进的卷积模块FC2f,最后将该模块以及原始YOLOv8目标检测模型中的卷积模块、拼接模块、上采样模块、损失函数这些模型参数,传输至检测头网络加速模块2‑2; 检测头网络加速模块2‑2使用自定义的解耦头模块改进了模型的检测头网络,自定义的解耦头模块为:当输入特征图为Fin首先通过前的连续通道卷积操作,SILU激活函数,两个1×1卷积和一个常规的卷积模块得到随后FFN经过两条平行的1×1卷积分支,用于生成对原图片的分类预测PredCls=ConvClsFFN和边界框预测信息PredBbox=ConvBboxFFN,其中ConvCls是将深层特征映射到目标类别空间的1×1卷积操作,并为每个类别获得置信度分数,ConvBbox是对应于特征图中每个像素边界框位置信息的1×1卷积操作,由此得到改进的检测头网络加速模块FHead;最后,将该模块以及从卷积优化模块2‑1接收的模型参数,一并传输至特征提取增强模块2‑3; 特征提取增强模块2‑3,使用自定义的基于注意力机制的卷积结构改进YOLOv8骨干网络中的C2f模块,自定义的基于注意力机制的卷积结构包括两个分支:通道分支和空间分支,给定输入特征图该自定义的注意力机制输出其中为通道分支输出,为空间分支输出;在通道分支中,通道分支输出⊙ch是通道维度的乘法操作,通道分支注意力AchXin=FSG[Wzσ1WvXin×FSMσ2WqXin],其中Wq,Wv,和Wz是1×1的卷积操作,σ1和σ2是数据形状修改操作,FSM·是Softmax操作,“×”是矩阵点乘操作,FSG·是Sigmoid操作;在空间分支中,空间分支输出空间注意力分支其中Wq和Wv是1×1的卷积操作,σl,σ2,和σ3是数据形状修改操作,FGP是全局池化操作,⊙sp是空间维度上对数据进行逐元素乘法操作的操作,由此得到改进的特征提取模块PFC2f模块;最后,将该模块以及从检测头网络加速模块2‑2接收的模型参数一并传输至基于YOLOv8的人脸口罩检测模型训练模块4‑1; 基于YOLOv8的人体姿态估计模型搭建模块3改进和构建基于YOLOv8的人体姿态估计模型,包括通道特征融合增强模块3‑1和损失函数改进模块3‑2; 通道特征融合增强模块3‑1针对原始的YOLOv8人体姿态估计模型,使用自定义的特征融合模块改进原YOLOv8人体姿态估计网络中颈部网络中的所有Concat模块,该自定义的特征融合模块为,当输入特征图为F1和F2时,首先初始化两个可学习的权重W1,W2,随后将两个权重进行快速归一化,计算∈是小常数,设置为0.0001,最后该自定义的特征融合模块的输出为ConcatWn1×F1,Wn2×F2,其中Concat是通道维度的拼接操作,由此得到改进的通道特征融合模块FConcat模块,最后,把该模块及原始YOLOv8人体姿态估计模型的卷积模块、拼接模块、上采样模块、检测头模块这些模型参数,传输至损失函数改进模块3‑2; 损失函数改进模块3‑2使用自定义定位损失函数改进模型的定位损失函数,该自定义的定位损失函数计算为:L=LIoU+Ldis+Lasp,其中交并比损失LIoU=1‑IOU;距离损失和边长损失IOU是预测框和真实框的交并比,w和h分别表示预测边界框的宽度和高度,wgt和hgt分别表示真实边界框的宽度和高度,wc和hc是是覆盖预测框和标签框的最小矩形的宽度和长度,ρ是中心点变量的欧氏距离,由此得到改进的损失函数;最后,把该损失函数以及从通道特征融合增强模块3‑1接收的模型参数一并传输至基于YOLOv8的人体姿态估计模型训练模块4‑2。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学;公安部第三研究所,其通讯地址为:211102 江苏省南京市江宁区东南大学路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励