山东科技大学单彩峰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉山东科技大学申请的专利一种基于双分支自注意力网络的行人属性识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115439884B 。
龙图腾网通过国家知识产权局官网在2025-07-15发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210978456.X,技术领域涉及:G06V40/10;该发明授权一种基于双分支自注意力网络的行人属性识别方法是由单彩峰;刘振宇;张彰;张鹏;陈宇设计研发完成,并于2022-08-16向国家知识产权局提交的专利申请。
本一种基于双分支自注意力网络的行人属性识别方法在说明书摘要公布了:本发明公开了一种基于双分支自注意力网络的行人属性识别方法,属于模式识别技术领域,包括如下步骤:图像数据采集及处理,构建并划分数据集;图像特征提取;构建双分支自注意力行人属性识别网络模型获取图像属性相关信息和上下文区域信息;训练输出性能良好的双分支自注意力网络模型;通过监控视频实时采集行人图像,利用训练完成的两分支自注意力网络模型进行行人属性的自动识别。本发明采用双分支自注意力网络获取属性相关信息和上下文关系,并结合约束损失等对属性特征分类进行限制,提升了属性分类性能,能够在大规模监控场景下稳定实现行人属性识别。
本发明授权一种基于双分支自注意力网络的行人属性识别方法在权利要求书中公布了:1.一种基于双分支自注意力网络的行人属性识别方法,其特征在于,包括如下步骤: 步骤1、图像数据采集及处理,构建并划分数据集; 步骤2、图像特征提取; 步骤3、构建双分支自注意力行人属性识别网络模型获取图像属性相关信息和上下文区域信息,双分支包括属性分支和上下文分支,属性分支包括二阶自注意力模块和属性自注意力模块,上下文分支包括上下文自注意力模块;具体过程为: 步骤3.1、基于二阶自注意力模块和属性自注意力模块计算属性分支的预测值 二阶自注意力模块的计算过程如下: 步骤3.1.1、特征图X通过1×1卷积得到维度为的三维张量,再改变该张量的维度变换成二维矩阵Q=H×W,相同操作重复三次生成特征图X的三个投影矩阵,分别为KS、QS和VS,维度均为其中,输入通道为C维,输出通道为维,r表示采样降低倍率; 步骤3.1.2、使用投影KS和投影QS计算协方差矩阵如式1所示, 其中,I和1分别是Q维单位矩阵和全一矩阵; 步骤3.1.3、采用Softmax函数处理协方差矩阵Σ并采用Q作为协方差矩阵的缩放因子; 步骤3.1.4、将步骤3.1.3得到的结果与VS点乘得到如式2所示,并将展开为形状为的张量; 步骤3.1.5、最后将和特征图X通过1×1卷积得到的维度为一阶特征拼接起来,共同作为后续属性自注意力模块的输入; 属性自注意力模块的计算过程如下: 步骤3.1.6、输入形状为的三维特征图通过不同的1×1卷积并将最后两维数据维度变换成一维以获得KA、QA和VA,分别表示属性自注意力模块的三个输入投影矩阵,其中QA,NH和M分别是注意力头数和属性个数,DA表示属性特征映射的维度; 步骤3.1.7、根据式3,将矩阵QA和矩阵KA的转置相乘,再通过Sigmoid操作得到各属性的注意力分数该分数代表了输入中包含某种属性的概率,式中M表示属性个数; 步骤3.1.8、将上述注意力分数与VA相乘得到各注意力头数对应的预测值 步骤3.1.9、然后沿NH维度对进行求和,将其拉伸成一个维度为M的属性自注意力模块初步预测结果 步骤3.1.10、设计约束损失函数来限制预测分数,如式4所示, 其中,ωj表示训练数据集中第j个属性所占的权重,pij、yij分别表示第i个样本的第j个属性的预测值和标签值; 步骤3.1.11、最后,对初步预测结果进行线性化处理,并且与KA相加,得到属性分支最终预测结果表示为式5, 其中,WA∈RM×M表示线性化处理分类器参数; 步骤3.2、基于上下文自注意力模块计算上下文分支的预测值 步骤3.3、最终分类预测结果表示为和的平均值,利用Sigmoid进行加权处理,获取最终属性分类结果,将最终属性分类结果大于0.5的取1,小于等于0.5的取0; 步骤4.训练输出性能良好的双分支自注意力网络模型; 步骤5、通过监控视频实时采集行人图像,利用训练完成的双分支自注意力网络模型进行行人属性的自动识别。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山东科技大学,其通讯地址为:266590 山东省青岛市黄岛区前湾港路579号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。