重庆大学仲元红获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉重庆大学申请的专利用于人体姿态估计的特征和语义细化网络的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115631534B 。
龙图腾网通过国家知识产权局官网在2025-12-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211340728.X,技术领域涉及:G06V40/20;该发明授权用于人体姿态估计的特征和语义细化网络的方法是由仲元红;徐乾锋;伍光伟;钟代笛;黄灏飞;黄智勇;葛亮;周庆设计研发完成,并于2022-10-29向国家知识产权局提交的专利申请。
本用于人体姿态估计的特征和语义细化网络的方法在说明书摘要公布了:本发明提供用于人体姿态估计的特征和语义细化网络的方法,在特征和语义两个层面对预测的人体姿态进行细化。特征层面使用多个扩展率来实现不同感受野的特征对齐,与一般的下采样和上采样操作相比,减少了特征损失;然后使用注意力机制给辅助特征加权,减少错误对齐带来的损失。语义层面使用相邻热度图之间的差信息作为辅助,对特征修正后的关键热度图进行再次修正。本方法利用了特征和语义两个层面的信息特征完成预测姿态的细化,对一般的特征对齐模块进行了改进,提高了人体姿态估计的精度。
本发明授权用于人体姿态估计的特征和语义细化网络的方法在权利要求书中公布了:1.用于人体姿态估计的特征和语义细化网络的方法,其特征在于,所述用于人体姿态估计的特征和语义细化网络的方法包括如下步骤: S101,数据预处理,本方法基于单人人体姿态估计,由于一般图像中存在多人,首先需要对图像进行预处理,将图片裁剪为若干个单人图片,然后将关键帧与关键帧的前后帧中的裁剪后的同一人的图片作为一组,并输入骨干网生成特征和粗糙的热度图; S102,特征细化,将上述数据预处理阶段获得的特征输入特征细化模块,在利用特征对齐和注意力机制对特征进行修正,获得修正后的当关键帧帧特征; S103,语义细化,将数据预处理阶段获得的前后帧热度图和特征细化阶段修正后的关键帧特征生成的热度图输入语义细化模块,利用相邻热度图之间的差作为辅助信息对关键帧热度图细化,并生成最终的热度图; 所述S101具体包括: 给定连续的3帧I[t-1,t,t+1],It是关键帧,其他是辅助帧,使用人体探测器来检测关键帧It中的人,获得定位其中人体的检测框,检测框数为It中的人员实例数,并将检测框大小放大25%,将图像I[t-1,t,t+1]使用It中放大后的检测框进行裁剪,得到若干组裁剪的视频片段,组数等于It中的人员实例数,每组中为裁剪后的连续三帧视频片段C[-1,t,t+1],将裁剪后的视频片段C[-1,t,t+1]输入骨干网络以生成粗略特征F[t-1,t,t+1]和热图H[t-1,t,t+1], 这个过程可以由如下公式表示: 其中表示具有固定参数θ的骨干网络; 所述S102具体包括: 1特征对齐 利用基于可变形卷积的的多膨胀率特征对齐模块将辅助特征与关键特征进行对齐, Ft和Ft+1分别是参考特征和相邻特征,该模块有三个并行分支, 可变形卷积膨胀率为1时,将Ft和Ft+1连接并经过卷积得到特征将作为可变形卷积的offset和mask输入,Ft+1作为其x输入,得到膨胀率为1时Ft+1与Ft对齐后的特征 可变形卷积膨胀率为3时,将Ft、Ft+1和连接,并经过卷积得到特征将作为可变形卷积的offset和mask输入,Ft+1作为其x输入,得到膨胀率为3时Ft+1与Ft对齐后的特征 可变形卷积膨胀率为5时,将Ft、Ft+1和连接,并经过卷积得到特征将作为可变形卷积的offset和mask输入,Ft+1作为其x输入,得到膨胀率为5时Ft+1与Ft对齐后的特征 最后,将不同膨胀率下对齐的特征级联,并以膨胀率为1与当前的关键特征对齐,得到最终对齐后的特征 2注意力融合 首先计算关键特征与对齐后的辅助特征的相似度,然后将计算得到的相似度作为权重给对齐后的辅助特征加权,最后使用卷积将关键特征与加权后的辅助特征进行融合,生成特征细化后的关键帧特征, 我们首先通过以下方式计算关键特征和对齐后的辅助特征的相似度: SFt+1,Ft=sigmoidfθ1Ft+1T*fθ2Ft 其中fθ1和fθ2是普通的卷积层,sigmoid函数将相似系数限制为[0,1], 然后,计算出的相似系数SFt+i,Ft用于对辅助特征Ft+i进行加权,具体操作如下式所示: F′t+i=Ft+i⊙SFt+i,Ft 其中⊙是逐元素乘法, 最后将对齐后的辅助特征和关键特征连接起来,输入卷积层进行融合,生成融合后的关键特征, Ffinal=Conv[F′t+1,Ft,F′t-1] 其中[]是连接操作, 注意力融合模块通过空间注意力计算关键特征和对齐的辅助特征之间的相似系数,增强了对对齐后辅助特征有效信息的感知能力,提高了融合后关键特征的质量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆大学,其通讯地址为:400044 重庆市沙坪坝区正街174号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励