华南师范大学梁艳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南师范大学申请的专利一种表情识别方法、装置、电子设备及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115273175B 。
龙图腾网通过国家知识产权局官网在2025-06-27发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210710861.3,技术领域涉及:G06V40/16;该发明授权一种表情识别方法、装置、电子设备及存储介质是由梁艳;温兴;李宇轩设计研发完成,并于2022-06-22向国家知识产权局提交的专利申请。
本一种表情识别方法、装置、电子设备及存储介质在说明书摘要公布了:本发明涉及一种表情识别方法、装置、电子设备及存储介质。本发明所述的表情识别方法包括:获取待识别的表情图像;对所述表情图像进行人脸裁剪与关键点检测,得到预设大小的人脸全局图像和人脸关键点坐标;将根据所述人脸全局图像和所述人脸关键点输入特征提取模型,得到表情全局特征和表情局部特征;基于自注意力机制,融合所述表情全局特征和所述表情局部特征,得到表情融合特征;将所述表情融合特征输入训练好的表情分类器,得到表情识别结果。本发明所述的表情识别方法,基于自注意力机制学习表情的特征,提高了表情识别的鲁棒性,并为后续跨数据集表情识别提供迁移性更强的特征。
本发明授权一种表情识别方法、装置、电子设备及存储介质在权利要求书中公布了:1.一种表情识别方法,其特征在于,包括以下步骤: 获取待识别的表情图像; 对所述表情图像进行人脸裁剪与关键点检测,得到预设大小的人脸全局图像和人脸关键点坐标; 将根据所述人脸全局图像和所述人脸关键点输入特征提取模型,得到表情全局特征和表情局部特征;其中,所述特征提取模型包括MTCNN模型和LocalNet模块;所述MTCNN模型用于人脸关键点定位;所述LocalNet模块用于局部特征提取; 基于自注意力机制,融合所述表情全局特征和所述表情局部特征,得到表情融合特征; 将所述表情融合特征输入训练好的表情分类器,得到表情识别结果;其中,所述表情分类器的训练步骤包括: 获取不带标签的目标数据集; 对所述目标数据集进行人脸裁剪与关键点检测,得到预设大小的人脸全局图像和人脸关键点坐标; 将根据所述人脸全局图像和所述人脸关键点输入特征提取模型,得到表情全局特征和表情局部特征; 基于自注意力机制,融合所述表情全局特征和所述表情局部特征,得到表情融合特征; 在所述训练好的表情分类器中,添加一个域鉴别器; 使用训练数据集和所述目标数据集的表情融合特征,对所述域鉴别器和所述分类器进行对抗训练,包括: 基于自注意力机制获得的融合表情特征获得目标数据集的融合特征xi,根据融合特征xi输入到两层MLP中获得表情的软标签; 对于所有源数据集表情图像与所有目标数据集表情图像,将其K维标签扩充维2K维标签,K为表情类别数,其中源数据集的标签在1至K维使用原来的标签信息,在K+1至2K维数据置为0,目标数据集的标签在1至K维数据置为0,在K+1至2K维使用前面获得的软标签; 使用以下公式,将源数据集获得的融合特征继续输入到两层MLP中计算表情分类损失Lcls,Lcls为表情的分类损失,采用交叉熵损失在源数据集上最小化预测分类与真实表情分类间的区别: 其中,N为源数据集的样本数量,yik为第i张表情图像为第k类表情的标签;pik为融合表情为第k类表情的概率; 使用以下公式,将源数据集和目标数据集的融合特征分别输入域-类别鉴别器中计算域-类别对抗损失Ladv: 其中,S代表源数据集数据,T代表目标数据集数据;aik,ajk为源域样本i或目标域样本j为第k类的类别信息,fi,fj为表情融合特征,P为预测融合特征为k类,来自d数据集的概率,d=0为样本来自源数据集,d=1为样本目标数据集; 使用以下公式,计算结合两个损失后的总损失: L=αLcls+βLadv 其中α,β为损失比重,初始化为1与10,对抗目标为最小化L; 当训练至损失L最小时,停止训练,保存特征提取器和分类器用于目标数据集的表情识别; 训练结束后,保存所述特征提取模型和所述分类器。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南师范大学,其通讯地址为:528225 广东省佛山市南海区狮山南海软件科技园华南师范大学软件学院;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。