哈尔滨工业大学李海峰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉哈尔滨工业大学申请的专利一种基于运动单元原型模板的微表情特征提取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116434307B 。
龙图腾网通过国家知识产权局官网在2026-05-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310410116.1,技术领域涉及:G06V40/16;该发明授权一种基于运动单元原型模板的微表情特征提取方法是由李海峰;何雨鸿;徐忠亮;马琳设计研发完成,并于2023-04-18向国家知识产权局提交的专利申请。
本一种基于运动单元原型模板的微表情特征提取方法在说明书摘要公布了:本发明公开了一种基于运动单元原型模板的微表情特征提取方法,包括:在预处理中,针对不同被试之间面部差异问题和同一被试在视频中的头部平移问题,使用了基于器官的面部位置校正和裁剪方法,保证光流特征提取的准确性;为准确分析微表情中的运动单元,提出面向运动单元的原型模板。每个原型模板中记录了具有代表性的面部运动单元动态信息,并对具有一定差异的面部动作的AU识别具有较强的鲁棒性;为准确捕捉微表情动作,将微表情视频的光流图序列与AU运动模板进行匹配,得到对视频中复杂微表情动作的深入解析,提升微表情特征的准确率性和可解释性。本发明的优点是:能够有效捕捉微表情发生时细微的面部动作,可用于微表情检测,识别和生成。
本发明授权一种基于运动单元原型模板的微表情特征提取方法在权利要求书中公布了:1.一种基于运动单元原型模板的微表情特征提取方法,其特征在于,包括以下步骤: 步骤1:针对训练集,选取微表情视频中的初始帧和峰值帧;初始帧是微表情开始的第一帧,峰值帧是微表情动作幅度最大的一帧,代表了最大的运动信息; 步骤2:定位初始帧特征点的坐标,从中选择鼻尖坐标点=,左外侧眼角坐标点=,右外侧眼角坐标点=和左侧嘴角,右侧嘴角; 步骤3:根据初始帧和峰值帧中的鼻尖区域光流对峰值帧的特征点进行位置校正; 步骤3具体子步骤如下: 步骤3-1:根据初始帧的鼻尖坐标点=,确定初始帧和峰值帧的鼻尖区域框和; 步骤3-2:使用Farneback光流法计算图像序列中初始帧和峰值帧中鼻尖区域的稠密光流,如下式: , 得到光流矩阵,和分别是鼻尖区域的宽和长; 步骤3-3:计算鼻尖区域光流矩阵的均值,来衡量两帧之间面部位置变化,其中代表了水平方向移动,代表垂直方向的运动; , 步骤3-4:根据步骤3-3中得到的初始帧和峰值帧的偏移程度和初始帧的特征点坐标计算峰值帧的特征点坐标; , , , , 步骤4:根据眼角特征点切割出眼睛区域;根据嘴角特征点切割出嘴巴区域; 步骤5:使用稠密光流方法计算微表情视频i中初始帧和峰值帧之间眼睛和嘴巴区域的稠密光流图,记为和,公式如下: , , 步骤6:对具有相同运动单元的微表情视频的光流图做叠加平均,得到运动单元原型模板,它代表了微表情发生时相应运动单元的基本运动模式;j是运动单元的索引,是发生在眼睛区域的运动单元的集合,是发生在嘴巴区域的运动单元的集合; , 是包含运动单元j的微表情视频索引集合; 在计算所有运动单元原型模板后,得到了运动单元模板集合;V是运动单元的数量; 步骤7:针对测试集,在进行步骤2,3,4进行预处理后,使用稠密光流方法计算两张微表情图片之间眼睛和嘴巴区域的稠密光流图,记为和; 步骤8:计算光流图与运动单元原型模板的匹配程度; , , 表示光流图与原型模板的匹配结果,w和h是矩阵的宽和长; 步骤9:在与所有运动单元原型模板进行匹配后,得到基于运动单元模板的微表情特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学,其通讯地址为:150006 黑龙江省哈尔滨市南岗区西大直街92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励