济南大学韩忠洋获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉济南大学申请的专利一种基于深度学习的自闭症儿童面部表情识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121121829B 。
龙图腾网通过国家知识产权局官网在2026-04-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511485044.2,技术领域涉及:G06V40/16;该发明授权一种基于深度学习的自闭症儿童面部表情识别方法是由韩忠洋;韩瑞智;陈月辉;曹毅;赵亚欧设计研发完成,并于2025-10-17向国家知识产权局提交的专利申请。
本一种基于深度学习的自闭症儿童面部表情识别方法在说明书摘要公布了:本发明涉及目标检测与情绪识别交叉领域,尤其涉及一种基于深度学习的自闭症儿童面部表情识别方法。包括:在YOLOv11主干网络的C3k2模块后嵌入三维注意力Tri‑Attention,以并行建模高度、宽度与通道三个维度间的交互关系,增强对眼睛、嘴角等关键表情区域的响应;在颈部网络的多尺度特征输出端再次引入三维注意力Tri‑Attention,实现对复杂背景下小尺度人脸的有效定位与背景噪声抑制;利用公共数据集和自建的自闭症儿童数据集分别对YOLOv11‑TA模型进行训练与验证,输出每张人脸的检测框及其表情类别;通过对比原始YOLOv11与YOLOv11‑TA在多种数据集上的各项指标,实际验证所提方法显著提升了自闭症儿童表情识别的准确率和鲁棒性。
本发明授权一种基于深度学习的自闭症儿童面部表情识别方法在权利要求书中公布了:1.一种基于YOLO模型的自闭症儿童面部表情识别方法,其特征在于:具体包括如下步骤: 步骤1:获取自闭症儿童的面部表情数据,对这些表情数据进行处理后,构建出自闭症儿童面部表情数据集,并将其划分为训练集和验证集; 步骤2:构建YOLOv11-TA网络模型,该模型基于YOLOv11架构,其核心创新在于引入Tri-Attention机制,并将其嵌入至网络的主干和颈部两个关键位置,以解决小人脸定位难与表情细节捕捉不足的问题; 步骤3:利用训练集和验证集对所述YOLOv11-TA网络进行多轮次的迭代训练和验证,监控是否过拟合,并为进一步的模型优化提供反馈; 步骤4:根据模型在测试集及公开数据集上的多项评价指标得分,选出最佳网络模型,并保存最佳网络模型的参数; 步骤5:利用步骤4中保存的最佳网络模型对输入的实时图像或视频帧进行推理,输出自闭症儿童的人脸检测框及其对应的“快乐”、“悲伤”或“正常”情绪类别,实现情绪状态的自动识别; 所述步骤2中,基于YOLO模型的自闭症儿童面部表情识别方法网络结构具体描述为: 步骤2.1:对于Tri-Attention模块,该模块由三个并行分支组成,每个分支专注于输入张量任意两个维度之间的交互依赖关系,具体包括:高度H与宽度W、通道C与高度H、通道C与宽度W;Tri-Attention模块接收形状为C,H,W的输入特征图X,输出相同形状的增强特征图; 更进一步地,针对步骤2.1中Tri-Attention模块设计,以第一个分支为例,具体可描述为: 步骤2.1.1:对输入特征图X分别沿高度维度H、宽度维度W和通道维度C执行具有可变大小的内核的自适应平均池化,提取出三个特征图: , 其中PhX、PwX、PcX表示分别高度维度H、宽度维度W、通道维度C进行的自适应平均池化; 步骤2.1.2:在第一个分支中,将x2进行旋转,旋转后x2的形成由C,H,1变为C,1,H,由此x1和x2就可以在第三维度拼接,生成形状为C,1,H+W的特征图XHW; 步骤2.1.3:将上述拼接后的特征图XHW通过1×1卷积层进行通道降维,降维后的通道数Cout计算公式为: , 其中r默认为16,Cin为XHW的通道数,此时输出的XHW形状为Cr,1,H+W; 步骤2.1.4:对降维后的特征图XHW应用批量归一化BN; 步骤2.1.5:利用ReLU激活函数对经过批量归一化的特征图XHW进行非线性激活; 步骤2.1.6:对特征图XHW按第三维度进行分割,使特征图可以逐步恢复为初始形状;分割后的特征图x1’,x2’形状分别为Cr,1,H,Cr,1,W; 步骤2.1.7:将特征图x1’,x2’再次通过一个1×1卷积层进行通道数的升维处理,此时输出的特征图x1’,x2’形状与x1和x2相同,分别为C,1,W,C,1,H; 步骤2.1.8:对x2’进行旋转,使x2’的形状转变为C,H,1,以便进行后面的逐元素相乘操作; 步骤2.1.9:对x1’,x2’使用Sigmoid激活函数,通过Sigmoid激活函数将特征图的值映射到0到1之间,从而得到两个注意力权重图,分别表示在宽度方向和高度方向上的重要性分布; 步骤2.1.10:将x1’,x2’作为注意力权重图与形状为C,H,W的初始输入特征图X逐元素相乘,得到该分支的增强特征图XHW;通过逐元素相乘操作,让初始输入特征图在宽高方向依注意力权重图自适应调整; 步骤2.1.11:在第二分支中,对形状为1,H,W的x3和形状为C,1,W的x1执行与步骤S2.1.2–2.1.10类似的处理流程,生成对应的通道-高度注意力权重图,并输出增强特征图XCH; 步骤2.1.12:在第三分支中,对1,H,W的x3和形状为C,H,1的x2执行与步骤S2.1.2–2.1.10类似的处理流程,生成对应的通道-宽度注意力权重图,并输出增强特征图XCW; 步骤2.1.13:对增强特征图XHW、XCH、XCW进行自适应加权求和,输出最终特征图Y: , 其中最终特征图Y与输入特征图X的形状一致,均为C,H,W,α、β、γ均为可学习参数,且满足α+β+γ=1;通过引入可学习的参数α、β、γ,Tri-Attention模块能够根据不同任务的需求,自动调整各分支特征图对最终输出的贡献程度; 步骤2.2:将Tri-Attention模块嵌入YOLOv11网络;具体地,在YOLOv11主干网络的每个C3k2模块之后嵌入一个Tri-Attention模块,以增强对关键表情区域的特征提取能力;同时,在颈部网络输出的三个多尺度特征分支的末端分别引入Tri-Attention模块,通过自适应加权抑制复杂背景噪声,并增强小尺寸人脸的检测能力。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人济南大学,其通讯地址为:250022 山东省济南市市中区南辛庄西路336号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励