合肥工业大学杨兴明获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉合肥工业大学申请的专利基于视线方向对比学习的驾驶员分心行为检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116092058B 。
龙图腾网通过国家知识产权局官网在2025-08-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211357758.1,技术领域涉及:G06V20/59;该发明授权基于视线方向对比学习的驾驶员分心行为检测方法是由杨兴明;景圣恩;吴克伟;张婉;刘家仁;张旭;谢昭设计研发完成,并于2022-11-01向国家知识产权局提交的专利申请。
本基于视线方向对比学习的驾驶员分心行为检测方法在说明书摘要公布了:本发明公开了一种基于视线方向对比学习的分心驾驶行为检测方法。本发明设计卷积神经网络估计驾驶员头部的凝视点坐标,根据凝视点坐标来计算视线方向。考虑驾驶场景中的感兴趣目标位置,来找出视线方向中的感兴趣目标,并修正视线方向。本发明通过挖掘容易混淆的驾驶状态视频帧,并利用对比学习,来准确辨别易混淆的驾驶状态。对比学习考虑,使易混淆安全视频帧特征接近易识别安全视频帧特征,同时远离易识别分心视频帧特征,从而有效的分离易混淆的分心视频帧和安全视频帧。本发明估计的视线方向指向明确的感兴趣目标,同时,使用对比学习,能够有效实现容易混淆的视线方向情况下的分心行为检测。
本发明授权基于视线方向对比学习的驾驶员分心行为检测方法在权利要求书中公布了:1.一种基于视线方向对比学习的驾驶员分心行为检测方法,其特征在于:具体包括以下步骤: S1:处理驾驶员的头部视频,得到视频帧; S2:构建凝视点提取网络,提取驾驶员的凝视点坐标; S3:构建驾驶员视线加权和与物体距离加权的空间图卷积网络,提取驾驶员视线方向的空间图卷积特征; S4:基于对比学习的空间图卷积网络训练; S5:基于对比学习的驾驶员分心行为检测; 步骤S1具体包括以下步骤: S1-1:在驾驶的过程中,使用位于驾驶员右前方的红外摄像头获取驾驶员头部视频Vn和其真实值标签其中n=1,2...N,表示视频数量,为0表示非分心驾驶,为1表示分心驾驶; S1-2:将步骤S1-1得到的每个视频Vn划分为多帧不重叠的片段Snippetn,m,其中m=1,2...M,表示片段数量; S1-3:对每个片段Snippetn,m进行随机采样得到一个视频帧Framen;m; 步骤S2具体包括以下步骤: S2-1:将步骤1-3得到的视频帧Framen;m通过头部位置提取模型,获得头部位置坐标ph; S2-2:计算头部位置坐标的损失函数; 其中ph_gt表示头部坐标的真实值,dph,ph_gt表示ph和ph_gt之间的欧式距离; S2-3:提取驾驶员的双眼特征; S2-3-1:对S1-2获得的视频帧进行裁剪处理,提取左、右眼的区域,并将其尺寸调整为36×60; S2-3-2:使归一化后的左眼区域和右眼区域各自通过并行的ResNet-18网络,获得的左眼特征表示为fl,右眼特征表示为fr,其维度都为1×224; S2-3-3:将左眼特征fl和右眼特征fr串联起来通过一个输出维度为256的全连接层,得到驾驶员的双眼特征fe; S2-4:预测凝视点坐标pg; S2-4-1:将步骤S2-1得到的头部位置坐标ph,通过三个输出维度为256的全连接层,得到头部位置特征fh; S2-4-2:将步骤S2-3-3得到的双眼特征fe和步骤S2-4-1得到的头部位置特征fh串联起来,通过两个输出维度分别为256和2的全连接层,得到凝视点坐标pg; S2-5:计算凝视点坐标的损失函数; S2-5-1:计算驾驶员头部到凝视点的归一化向量为 S2-5-2:计算凝视点坐标的损失函数: 其中pg表示预测的凝视点坐标,pg_gt表示凝视点坐标的真实值,ph表示预测的头部位置坐标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人合肥工业大学,其通讯地址为:230009 安徽省合肥市包河区屯溪路193号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。