Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江理工大学田秋红获国家专利权

浙江理工大学田秋红获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江理工大学申请的专利基于多尺度自注意力机制的解耦的3D网络的动作识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117011943B

龙图腾网通过国家知识产权局官网在2025-11-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311030327.9,技术领域涉及:G06V40/20;该发明授权基于多尺度自注意力机制的解耦的3D网络的动作识别方法是由田秋红;缪伟伦;李赛伟;潘豪设计研发完成,并于2023-08-16向国家知识产权局提交的专利申请。

基于多尺度自注意力机制的解耦的3D网络的动作识别方法在说明书摘要公布了:本发明公开了一种基于多尺度自注意力机制的解耦的3D网络的动作识别方法。方法包括:将带有动作类别标签的动作视频进行预处理后构成动作训练集;建立多尺度自注意力机制的解耦的3D网络,将动作训练集输入训练;采集待检测的动作视频并输入,输出待检测的动作视频的动作类别,完成动作识别。本发明方法能够关注到多尺度特征图上的全局时空特征,可以在空间和时间维度上实现更好的平衡,能够充分的利用特征信息,更全面地建模视频数据的时空特性,提高对视频数据的表达能力,提高对视频内容的理解和解释能力,提高了视频动作分类的性能。

本发明授权基于多尺度自注意力机制的解耦的3D网络的动作识别方法在权利要求书中公布了:1.一种基于多尺度自注意力机制的解耦的3D网络的动作识别方法,其特征在于,包括: 步骤1将带有动作类别标签的若干动作类别的动作视频进行预处理后构成动作训练集; 步骤2建立多尺度自注意力机制的解耦的3D网络MSA_2+1DNet,将动作训练集输入多尺度自注意力机制的解耦的3D网络MSA_2+1DNet中进行训练,获得训练完成的多尺度自注意力机制的解耦的3D网络MSA_2+1DNet; a所述MSA_2+1DNet包括依次连接的2+1Dstem引导模块、2+1D注意力模块组、全局平均池化层、向量一维化操作Flatten操作、全连接层FC和Softmax分类器; b所述2+1D注意力模块组包括四个注意力机制模块和四个2+1DResidual残差模块,所述注意力机制模块与残差模块相互交错并依次连接,且第一个模块为注意力机制模块; c所述注意力机制模块包括切割块patch_embedding操作、第一向量相加Add操作、时空编码生成操作、神经元随机失活Dropout操作、第二MLP、第三MLP、第四MLP、第一矩阵乘法Multiply操作、指数函数softmax归一化操作、向量除法Divide操作、第二矩阵乘法Multiply操作、上采样操作和第二向量相加Add操作; d所述注意力机制模块的输入首先进行切割块patch_embedding操作后获得特征图,特征图经过时空编码生成操作后获得特征图的可学习参数,可学习参数和特征图共同进行第一向量相加Add操作后再进行神经元随机失活Dropout操作,然后分别输入至第二MLP、第三MLP和第四MLP中进行处理,第二MLP和第三MLP处理的输出依次经第一矩阵乘法Multiply操作、指数函数softmax归一化操作和向量除法Divide操作后的输出再与第四MLP的输出共同经第二矩阵乘法Multiply操作,操作后的输出进行上采样操作,操作后再和注意力机制模块的输入共同经过第二向量相加Add操作后输出作为注意力机制模块的输出; 步骤3采集待检测的动作视频并输入至训练完成的多尺度自注意力机制的解耦的3D网络MSA_2+1DNet中,多尺度自注意力机制的解耦的3D网络MSA_2+1DNet输出待检测的动作视频的动作类别,完成动作识别。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江理工大学,其通讯地址为:310018 浙江省杭州市江干区下沙高教园区2号大街928号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。