北京航空航天大学王玉峰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种联合外观纹理和运动骨架的人体异常行为检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115601841B 。
龙图腾网通过国家知识产权局官网在2026-02-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211406683.1,技术领域涉及:G06V40/20;该发明授权一种联合外观纹理和运动骨架的人体异常行为检测方法是由王玉峰;曾羡霖;张泽豪;丁文锐设计研发完成,并于2022-11-10向国家知识产权局提交的专利申请。
本一种联合外观纹理和运动骨架的人体异常行为检测方法在说明书摘要公布了:本发明公开了一种联合外观纹理和运动骨架的人体异常行为检测方法,属于计算机视觉领域;首先,将原始视频等间隔划分,分别提取各帧内人体外观关键区域和每个人体的骨架关键点;计算所有人体的全局运动轨迹;然后,使用基于STGAT,预测未来帧中各人体骨架关键点的轨迹;针对每个人体,利用DFE将预测的骨架关键点转化为密集流热图作为指导信息,输入CGAN,生成对应骨架关键点姿态的人体外观关键区域;此外,利用逐像素分析法对外观关键区域的背景偏差进行消除以提高精度;最后,将每个人体的骨架关键点预测值和外观关键区域生成值,与对应的标签值计算误差,进行加权求和得到异常分数。本发明有效降低了虚警率,实现快速有效的视频异常检测。
本发明授权一种联合外观纹理和运动骨架的人体异常行为检测方法在权利要求书中公布了:1.一种联合外观纹理和运动骨架的人体异常行为检测方法,其特征在于,具体步骤如下:步骤一、针对包含待测人体行为的原始视频数据,将其等间隔分为若干片段; 步骤二、针对每个片段中的所有独立视频帧,使用目标检测算法提取各帧内的所有人体外观关键区域; 步骤三、针对每个片段,使用多目标跟踪算法计算该片段内所有人体的全局运动轨迹; 步骤四、使用姿态检测算法提取所有人体关键区域内的2D骨架关键点; 步骤五、利用各片段内所有人体的全局运动轨迹,结合各人体的骨架关键点,基于多尺度注意力机制的时空图注意力网络STGAT,预测未来帧中该片段内各人体骨架关键点的轨迹; 步骤六、针对每个人体,利用密集流估计器DFE将预测的未来帧中骨架关键点转化为密集流热图作为指导信息,输入条件生成对抗网络CGAN,生成对应骨架关键点姿态的人体外观关键区域; 密集流估计器DFE和条件生成对抗网络CGAN,共同组成密集流条件生成对抗网络DFCGAN; 所述DFE具体为:首先,将骨架关键点转成17通道的姿态热图作为结构指导信息,令和分别表示源图像和目标图像的骨架关键点;密集流估计器DFE将、、和作为输入,并生成密集流场,表示为: CGAN产生真实的纹理图像公式为: 为条件生成对抗网络,通过损失函数、对抗性损失函数、感知损失函数和风格损失函数生成联合损失函数进行端到端训练,直接学习潜在外观分布和挖掘运动信息到图像的映射关系,从而直接生成大量纹理样本; 在DFCGAN的训练中,采用基于背景消除BE的逐像素分析方法,通过使DFCGAN同时重构当前帧和预测未来帧中的关键区域以生成逐像素的纹理,以平衡整体亮度和饱和度,并降低背景中的锐度噪声; 具体地,在和时刻,分别有骨架关键点,,和外观关键区域,;BE过程具体表示为: 其中,和用于预测;,和重构; 步骤七、针对每帧图像中每个人体,使用两个异常值判断模块将骨架关键点预测值和外观关键区域生成值作为输入,与对应的标签值计算误差,得到两类异常分数,并进行加权求和得到最终异常分数; 步骤八、以二分类的方式对最终异常分数进行异常行为检测,即区分数据集内特定片段中分别包含异常和正常的时长,从而得到异常行为的人体。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励