北京理工大学;杭州电子科技大学付莹获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学;杭州电子科技大学申请的专利基于语义对齐和关系推理的跨模态行人重识别方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116884030B 。
龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310633556.3,技术领域涉及:G06V40/10;该发明授权基于语义对齐和关系推理的跨模态行人重识别方法及系统是由付莹;方兴业;颜成钢设计研发完成,并于2023-05-31向国家知识产权局提交的专利申请。
本基于语义对齐和关系推理的跨模态行人重识别方法及系统在说明书摘要公布了:本发明提出了基于语义对齐和相似度推理的跨模态行人重识别方法及系统,属于计算机视觉技术领域。首先预处理跨模态数据集,利用数据增广技术增加数据的多样性。然后使用分类损失函数、中心分离损失函数和原型多样性损失函数,对特征提取深度卷积网络进行训练。利用训练好的深度卷积神经网络,对行人图像进行特征提取,使用语义对齐实现潜在语义局部特征的对齐。最后利用相似度推理技术,根据语义对齐的特征向量计算图像间的距离,得到最终匹配结果。本发明有效解决了由行人姿态不对齐导致的特征向量语义不对齐问题,实现简单、性能高、鲁棒性强。本发充分挖掘图像间的相似度关系,优化距离计算,有利于实现高准确度和高稳定性的跨模态行人重识别。
本发明授权基于语义对齐和关系推理的跨模态行人重识别方法及系统在权利要求书中公布了:1.基于语义对齐和相似度推理的跨模态行人重识别方法,其特征在于,包括以下步骤: 步骤1:预处理跨模态数据集,利用数据增广技术增加数据的多样性; 步骤2:使用分类损失函数、中心分离损失函数和原型多样性损失函数,对特征提取深度卷积网络进行训练; 将总损失函数Lθ表示为: 其中,LID、LCS和LPD分别表示分类损失函数、中心分离损失函数和原型多样性损失;表示对齐的语义特征;y表示图像的身份标识;θ为模型参数;c为中心特征;α为损失函数权重; P表示可学习的语义原型;T表示特征图上的像素特征; 将LID进一步表示为: 其中,LSH_ID利用一个分类器同时预测两个模态的身份信息,构建交叉熵损失;LSP_ID利用两个分类器来分别预测各个模态的身份信息,构建交叉熵损失;LCM_ID将分类器的预测结果作为软标签,利用KL散度构建损失; LID通过评估分类模型预测结果和真实标签之间的差距来更新模型的参数,指导网络关注于有助于识别行人身份的特征,增强网络的特征发掘能力; 将LCS进一步表示为: 其中,N和M分别表示当前小批量训练的图像数目和当前小批量训练的行人身份数目;ρ1和ρ2分别表示某图像的特征向量到其对应中心特征向量的最大距离和不同中心特征向量间的最小距离;表示第i个语义对齐的特征向量;表示身份为yi的中心特征向量,表示身份为yk的中心特征向量; LCS的第一项将属于相同身份的特征向量聚集到其特征中心ρ1范围内;LCS的第二项将属于不同身份的特征中心彼此推离,使得网络关注于有利于区分行人身份的特征; 将LPD进一步表示为: 其中,p表示可学习的语义原型的数量;LPD指导网络关注不同的语义特征,充分发掘图像中潜在的特征信息,增强网络发掘潜在语义特征的能力; 在整个训练过程中,无需进行额外处理,跨模态行人重识别深度神经网络通过端到端的方式一次性训练完成; 步骤3:利用训练好的深度卷积神经网络,对行人图像进行特征提取;使用语义对齐技术,实现潜在语义局部特征的对齐; 步骤4:利用相似度推理技术,根据语义对齐的特征向量计算图像间的距离,得到最终匹配的结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学;杭州电子科技大学,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励