航天信息股份有限公司闫凯获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉航天信息股份有限公司申请的专利一种基于深度学习识别复杂场景人物的方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116363551B 。
龙图腾网通过国家知识产权局官网在2025-11-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211734521.0,技术领域涉及:G06V20/40;该发明授权一种基于深度学习识别复杂场景人物的方法及系统是由闫凯;金洪亮;林文辉;李宏伟;梅俊辉;王志刚;王晶设计研发完成,并于2022-12-30向国家知识产权局提交的专利申请。
本一种基于深度学习识别复杂场景人物的方法及系统在说明书摘要公布了:本发明公开了一种基于深度学习识别复杂场景人物的方法及系统,属于数据识别技术领域。本发明方法,包括:基于待监控复杂场景内的视频采集设备,采集待监控复杂场景内的视频数据,基于多种数据模型对所述视频数据进行解析识别,以获取所述视频数据的识别数据;基于所述识别数据及所述识别数据相对应的视频数据,生成检测模型;基于所述目标复杂场景内的视频采集设备,采集所述目标复杂场景内的目标视频数据;将所述目标视频数据输入至检测模型,基于所述监测模型对目标视频数据进行检测,以得到所述目标复杂场景内的人物识别数据。本发明能够用于对复杂场景内的人物进行识别。
本发明授权一种基于深度学习识别复杂场景人物的方法及系统在权利要求书中公布了:1.一种基于深度学习识别复杂场景人物的方法,其特征在于,所述方法包括: 基于待监控复杂场景内的视频采集设备,采集待监控复杂场景内的视频数据,基于多种数据模型对所述视频数据进行解析识别,以获取所述视频数据的识别数据; 基于所述识别数据及所述识别数据相对应的视频数据,生成检测模型; 基于目标复杂场景内的视频采集设备,采集所述目标复杂场景内的目标视频数据; 将所述目标视频数据输入至检测模型,基于所述检测模型对目标视频数据进行检测,以得到所述目标复杂场景内的人物识别数据; 其中,检测模型,用于将图像中人物目标区域与各类复杂背景的分割,粗略去除单一无效的背景区域,突出人物相关联区域,作为后续模块输入,该模块核心模型为RetinaNet,RetinaNet模型针对人物目标与背景区域类别失衡问题导致的分割效果差问题,调整损失函数,消除前景人物目标与背景类别极度不平衡,挖掘难分样本,其原损失函数公式如1所示: 其中,y∈{±1}为类别真实标签,1为前景人物目标标签,-1为背景标签,p∈[0,1]是模型预测为标签1的概率,修改后公式如2所示: FLpt=-αt1-ptγlogpt2 其中: 1-ptγ为调节因子,γ可调节模型容易分类目标的loss,当该值越大时,容易分类部分的损失值越小趋近于0,γ取0.65,而难以分类的部分损失值仍然很大,有效解决类别不均衡导致的损失函数失效问题,迭代训练中难以分类样本贡献更多地损失值; 基于深度学习的语义分割模型,将人物目标各个结构分解为头部、手部、颈部、胸部、腿部、脚部区域,用于后续检测人物属性信息以及行为信息检测的输入,该模块以人物目标分离模块输出的前景人物目标作为新的输入,使用RetinaNet模型,增加类别头部标签、手部标签、颈部标签、腿部标签、脚部标签; 检测视频中人物目标的属性信息,包括:人脸特征提取、人物性别检测、人物眼镜检测、口罩检测、帽子检测、人物发型检测、拎包检测、背包检测、上装颜色检测、下装颜色检测、人物目标区域环境信息,上述这类检测信息汇集输入到下一层,在人机交互过程中,被判定为正确的检测信息进入样本生成模块,生成新的训练样本,利用YOLO模型,实现人物目标区域周边物体检测,将物体位置信息与分类概率信息转化为回归问题;该模型在每个格子生成候选框与预测框比较,通过反复迭代训练降低损失值,得到人物目标周边物品检测模型,其损失函数如3所示: 其中,表示第i个网格,第j个box是含有物体,表示第i个网格,第j个box不含有物体,公式前两行为box的位置损失,x和y为box位置横纵坐标,为第i个box的真实横纵坐标,pic为第i个目标的类别置信度,Ci为box位置置信度,ωi和hi分别为目标偏移box的偏移量和高度; 检测视频中人物目标的行为信息,包括:人物移动方向检测、人物聚集数量检测、人物骑车动作监测、人物吸烟检测、人物危险行为检测、人物遗漏物品检测、人物驾驶车辆行为检测,上述这些行为检测信息汇集输入到下一层,在人机交互过程中,被人工判定为正确的检测信息进入样本生成模块,生成新的训练样本; 将接收人机交互后判定为检测正确的行为信息和属性信息结合视频数据制作为新的训练样本,生成的训练样本传入深度学习模型更新服务器,训练新的人物视频结构化的检测模型; 定期迭代更新人脸视频结构化系统中用到的所有模型,重新训练的模型可通过人工控制或定期自动化更新到人脸视频结构化系统中,利用如公式4确定当前的目标检测模型的检测精度,包括: 其中,accuracy为检测精度;TP表示真值标注为人物目标,模型预测为正确目标个数;FP表示真值标注为背景,模型预测为人物目标的个数;FN表示真值标注为人物目标,模型预测为背景的个数;TN表示真值标注为背景,模型预测为背景的个数;所述基于所述识别数据及所述识别数据相对应的视频数据,生成检测模型,包括: 将所述识别数据及所述识别数据相对应的视频数据,作为样本数据,对所述样本数据以预设的比例进行划分,得到训练数据集和验证数据集; 将所述训练数据集,输入至基于深度学习的模型,对所述训练数据集进行学习,以得到用于识别复杂场景人物的初步检测模型,将所述验证数据集输入至初步检测模型,对所述初步检测模型进行验证,基于验证数据,调整初步检测模型的参数,以生成检测模型; 所述多种数据模型,包括:视频数据解码模型,视频数据预处理模型,人物目标分离模型,人物目标结构分解模型,属性信息检测模型,行为信息检测模型; 所述视频数据解码模型用于对视频数据进行解码,以得到视频数据的解码数据; 所述视频数据预处理模型,用于对解码数据进行色彩和畸变的校正处理,归一化处理和图像增强处理,以得到解码数据的预处理数据; 所述人物目标分离模型,用于对预处理数据进行人物目标与场景的分离,以得到人物目标数据; 所述人物目标结构分解模型,用于多数人物目标数据进行结构分解,以得到人物的结构分解数据; 所述属性信息检测模型,用于对所述人物的结构分解数据进行特征提取,以得到人物的特征数据; 所述行为信息检测模型,用于基于人的特征数据,确定人物的行为特征,以得到人物的行为特征数据。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人航天信息股份有限公司,其通讯地址为:100195 北京市海淀区杏石口路甲18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励