杭州电子科技大学张伟彬获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学申请的专利一种结合多空间尺度特征的作业违章识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118334747B 。
龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410504548.3,技术领域涉及:G06V40/20;该发明授权一种结合多空间尺度特征的作业违章识别方法是由张伟彬;孔亚广;郑小青;陈张平;陈洪欢设计研发完成,并于2024-04-25向国家知识产权局提交的专利申请。
本一种结合多空间尺度特征的作业违章识别方法在说明书摘要公布了:本发明公开了一种结合多空间尺度特征的作业违章识别方法。本发明首先采集多个作业场景的视频,预处理后将视频数据划分为训练集和验证集;然后构建多空间尺度动作识别神经网络模型,包括密集‑残差主干网络和多空间尺度模块和分类头;基于所构建的网络模型进行训练;随后采集作业现场监控视频,选取待识别片段,获取关键帧,对关键帧进行人物检测,获取视频画面中人物的边界框;最后将获取的视频片段、关键帧、边界框输入多空间尺度动作识别神经网络模型中进行行为或动作识别,识别人物行为,并判断是否违章。本发明可提高远视角、过曝光、欠曝光下作业人物动作识别的准确率,从而提高总体的动作识别的准确性和鲁棒性。
本发明授权一种结合多空间尺度特征的作业违章识别方法在权利要求书中公布了:1.一种结合多空间尺度特征的作业违章识别方法,其特征在于包括以下步骤: S1、采集多个作业场景的视频,对视频进行裁剪并调整分辨率和帧率,提取所有图像帧,并对关键帧进行动作标注; S2、将视频数据划分为训练集和验证集; S3、构建多空间尺度动作识别神经网络模型,包括密集-残差主干网络和多空间尺度模块和分类头; 所述密集-残差主干网络的输出分为三支,一支作为多空间尺度模块第一阶段的输入,另一支与多空间尺度模块的输出一同进入ROIAlign层进行边界框对齐得到四组输出,再一支与ROIAlign层的输出进行拼接; S4、将训练样本输入至多空间尺度动作识别神经网络模型进行有监督训练,采用交叉熵损失函数,通过迭代优化,求解网络模型的权重、偏置参数;并使用验证集中的样本对该神经网络模型进行验证; S5、采集作业现场监控视频,选取待识别片段,获取关键帧,对关键帧进行人物检测,获取视频画面中人物的边界框; S6、将上述S5获取的视频片段、关键帧、边界框输入多空间尺度动作识别神经网络模型中进行行为或动作识别,识别人物行为,并判断是否违章; S1中所述对关键帧进行动作标注具体是: 使用yolov5模型对关键帧进行目标检测得到json格式的目标检测文件; 将目标检测文件中的非人物边界框删除,得到人物目标检测文件; 将人物目标检测文件以及关键帧导入到via标注工具,通过勾选复选框,对每个人物边界框逐一进行行为标注,得到人物行为标注文件; S3中所述密集-残差主干网络由输入处理模块、四种卷积子模块和下采样模块通过密集-残差连接构成,用于提取视频片段的时空上下文特征; 所述多空间尺度特征模块分三个阶段对所述密集-残差主干网络各个卷积模块的输出进行上采样及特征融合,据此来获取多空间尺度特征; 所述时空上下文特征和多空间尺度特征各自结合人物边界框进入ROIAlign层得到各自对应的人物动作特征,将这些特征进行拼接得到最终的人物动作特征; 所述ROIAlign层执行如下操作: 从标注文件获取视频画面中人物的边界框位置及大小; 按比例将边界框缩放至匹配时空上下文特征和多空间尺度特征的大小,根据边界框四个角点位置,提取特征,得到多个尺度的人物特征; 将时空上下文特征拼接在所有的人物特征之后,得到上下文-单人关联特征; 将上下文-单人关联特征输入分类头,经过卷积进一步提取高级语义特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学,其通讯地址为:310018 浙江省杭州市下沙高教园区2号大街;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。