深圳大学从镕获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉深圳大学申请的专利基于人车交互建模和多模态融合的行人过街意图预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121330653B 。
龙图腾网通过国家知识产权局官网在2026-03-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511881166.3,技术领域涉及:G06V20/58;该发明授权基于人车交互建模和多模态融合的行人过街意图预测方法是由从镕;张婷茹设计研发完成,并于2025-12-15向国家知识产权局提交的专利申请。
本基于人车交互建模和多模态融合的行人过街意图预测方法在说明书摘要公布了:本发明公开了基于人车交互建模和多模态融合的行人过街意图预测方法,涉及智能交通环境感知技术领域。包括:S1、数据采集;S2、数据处理;S3、数据划分;S4、模型构建;S5、模型训练;S6、模型测试与可视化。本发明通过人车交互建模量化行人与自驾车辆之间的动态交互关系,并通过基于注意力机制的多模态融合有效提高了模型预测行人过街意图的准确率。
本发明授权基于人车交互建模和多模态融合的行人过街意图预测方法在权利要求书中公布了:1.基于人车交互建模和多模态融合的行人过街意图预测方法,其特征在于,包括以下步骤: S1、数据采集:采集源数据,源数据包括使用车载前置高清摄像头捕捉视频数据流和基于车辆速度传感器获取的自车速度数据; S2、数据处理:对视频数据流和自车速度数据进行预处理,得到预处理后的数据; S3、数据划分:将预处理后的数据划分为训练集、验证集和测试集; S4、模型构建:构建意图预测网络模型,意图预测网络模型包括行人姿态特征提取模块、环境上下文特征提取模块、行人-自车交互编码器、多模态特征融合模块和分类头; S5、模型训练:将训练集输入意图预测网络模型,对意图预测网络模型进行训练;通过损失函数更新网络权重参数,经过若干次训练后,得到训练好的意图预测网络模型,并使用验证集进行验证; S6、模型测试与可视化:将测试集输入训练好的意图预测网络模型中,得到行人过街意图预测结果,并对预测结果进行可视化呈现; S4中构建意图预测网络模型,意图预测网络模型包括行人姿态特征提取模块、环境上下文特征提取模块、行人-自车交互编码器、多模态特征融合模块和分类头;其中, 基于自适应图卷积的行人姿态特征提取模块,包括三个串联的图卷积-时间卷积单元,用于提取行人姿态特征; 环境上下文特征提取模块,包括两个并行通道,分别用于局部场景特征提取和全局场景特征提取; 行人-自车交互编码器,包括嵌入层、交互编码层和GRU,用于融合自车速度数据和行人与车辆之间的相对位置信息; 行人-自车交互编码器中的人车相对位置包括以行人边界框坐标表示的水平距离和深度表示的垂直距离; 多模态特征融合模块,包括GRU-attention注意力模块和GCN-attention注意力模块,用于并行处理不同类型的神经网络通道并融合多模态特征向量; 分类头,采用全连接层实现,用于输出最终行人过街意图的预测结果; 行人-自车交互编码器包括嵌入层、交互编码层和GRU;其中, 嵌入层由三个独立的多层感知器构成,分别用于从自驾车辆速度、垂直距离以及水平距离中提取向量,分别得到三个特征向量; 交互编码层运用Cross-attention机制的原理,融合嵌入层输出的三个特征向量; 利用GRU来提取时序特征,得到行人-自车交互编码器的输出特征向量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人深圳大学,其通讯地址为:518060 广东省深圳市南山区粤海街道南海大道3688号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励