深圳大学卢波翰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉深圳大学申请的专利一种基于骨骼点的人体行为识别方法、设备与存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117315770B 。
龙图腾网通过国家知识产权局官网在2025-08-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310978530.2,技术领域涉及:G06V40/20;该发明授权一种基于骨骼点的人体行为识别方法、设备与存储介质是由卢波翰;从镕;张婷茹设计研发完成,并于2023-08-04向国家知识产权局提交的专利申请。
本一种基于骨骼点的人体行为识别方法、设备与存储介质在说明书摘要公布了:本发明公开了一种基于骨骼点的人体行为识别方法、设备与存储介质,应用于行为识别技术领域。包括以下步骤:S1.数据采集;S2.构建人体检测与姿态估计网络;S3.训练并测试人体检测与姿态估计网络;S4.进行人体检测与姿态估计;S5.人体多目标跟踪;S6.重复S4与S5直至完成对所有视频帧的处理,最终得到全部视频帧的人体关键点坐标堆叠数组;S7.构建人体行为识别网络;S8.训练并测试人体行为识别网络;S9.人体行为识别。本发明基于骨骼点进行人体行为识别,通过提取骨骼点的位置变换信息即可有效地理解目标的行为,具有较高的准确性;同时也降低了数据处理量,具有较高的实时性。
本发明授权一种基于骨骼点的人体行为识别方法、设备与存储介质在权利要求书中公布了:1.一种基于骨骼点的人体行为识别方法,其特征在于,包括以下步骤: S1.数据采集:使用摄像头拍摄现实场景中的视频数据; S2.构建人体检测与姿态估计网络:基于轻量化改进的YOLO-Pose算法,构建由ShuffleNetV2_k5为主干网络、BiFPN颈部网络与Decoupled-Head解耦检测头三个部分组成的人体检测与姿态估计网络; S3.训练并测试人体检测与姿态估计网络:将COCO-Keypoints数据集划分为训练集、测试集及验证集,并使用训练集对S2构建的人体检测与姿态估计网络进行训练,使用验证集进行验证,最后使用测试集对经过训练与验证后的人体检测与姿态估计网络进行测试; S4.进行人体检测与姿态估计:使用经过轻量化改进的YOLO-Pose算法对采集到的视频进行处理,得到人体检测框与17个人体关键点坐标及其对应置信度; S5.人体多目标跟踪:将S4中得到的人体检测框与17个人体关键点坐标及其对应置信度输入到BoT-SORT多目标跟踪算法中,为每个检测到的人体赋予唯一的身份序号并匹配前一帧与当前帧中的相同人体目标,并按照身份序号对当前帧中的人体关键点坐标进行排序; S6.重复S4与S5直至完成对所有视频帧的处理,最终得到全部视频帧的人体关键点坐标堆叠数组; S7.构建人体行为识别网络:基于PoseC3D算法进行改进,使用融合了CBAM注意力机制的ShuffleNetV2_k5网络替换PoseC3D算法的原始主干网络,从而得到人体行为识别网络; S8.训练并测试人体行为识别网络:将NTU-RGB+D60XSub数据集划分为训练集、测试集及验证集,并使用训练集对S7的人体行为识别网络进行训练,使用验证集进行验证,最后使用测试集对经过训练与验证后的人体行为识别网络进行测试; S9.人体行为识别:使用经过轻量化改进的PoseC3D算法对S6得到的人体关键点坐标堆叠数组结果进行处理,最终得到人体行为识别结果及置信度。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人深圳大学,其通讯地址为:518060 广东省深圳市南山区粤海街道南海大道3688号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。