Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江工商大学陈雨蓉获国家专利权

浙江工商大学陈雨蓉获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江工商大学申请的专利基于多标签图像识别的非机动车骑行人属性识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115294650B

龙图腾网通过国家知识产权局官网在2025-12-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210924562.X,技术领域涉及:G06V40/20;该发明授权基于多标签图像识别的非机动车骑行人属性识别方法是由陈雨蓉;陈卫刚设计研发完成,并于2022-08-02向国家知识产权局提交的专利申请。

基于多标签图像识别的非机动车骑行人属性识别方法在说明书摘要公布了:本发明公开了一种基于多标签图像识别的非机动车骑行人属性识别方法,属于计算机视觉领域。针对实际应用系统期望识别的非机动车骑行人属性,既有与较大范围图像区域相关的属性,又有只涉及较小图像区域的属性,本发明的识别方法采用多分支网络结构,分别由不同的分支网络识别那些涉及较小图像区域的属性、涉及中等尺寸图像区域的属性和涉及较大范围图像区域的属性;进一步地,本发明的特征提取模块和特征金字塔模块提取多个尺度、具有不同大小感受野的特征图,并选择合适大小感受野的特征图分别输入到上述各个分支网络,从而保证各个分支网络都具有较好的识别精度。

本发明授权基于多标签图像识别的非机动车骑行人属性识别方法在权利要求书中公布了:1.一种基于多标签图像识别的非机动车骑行人属性识别方法,其特征在于,该方法包括: S1、构建用于实现多标签图像识别的深度神经网络模型,所述深度神经网络模型由特征提取模块、特征金字塔模块和多标签识别模块组成; 所述特征提取模块采用ConvNeXt网络的前三级卷积层组,且在每级卷积层组后各附加一个空间注意力模块;输入到深度神经网络模型的待识别图像为RGB颜色空间的彩色图像其中W和H分别为图像的宽和高,首先将x转换成HSV颜色空间的图像x′,并将x′的色度分量图像和饱和度分量图像与x在通道方向拼接形成一个W×H×5的图像作为特征提取模块中第一级卷积层组的输入,其余两级卷积层组分别以上一级卷积层组和空间注意力模块的输出特征图作为输入; 所述特征金字塔模块用于对特征提取模块中各级卷积层组和空间注意力模块输出的特征图作进一步的处理,形成大小分别为和的特征图P1、P2和P3; 所述多标签识别模块包含三个分支网络,其中第一分支网络以特征图P1为输入,用于识别涉及第一尺度范围图像区域的属性;第二分支网络以P2为输入,用于识别涉及第二尺度范围图像区域的属性;第三分支网络以P3为输入,用于识别涉及第三尺度范围图像区域的属性;所述第一尺度范围、第二尺度范围和第三尺度范围的尺度依次递增;其中,对于多标签识别模块中的任意第i个分支网络,i=1,2,3,首先对通道数为Np的输入特征图Pi作自适应平均池化操作后形成一个Np×1的向量,然后将该向量输入到全连接层,再通过后接的Sigmoid激活操作输出一个Ki×1的向量作为所述第i个分支网络的最终输出,其中Ki等于第i个分支网络识别的属性数目;三个分支网络各自输出的向量被拼接成一个K×1的向量后作为多标签识别模块最终输出的预测标签,向量中的第k个元素表示以概率形式给出的输入图像出现第k个属性的可能性,其中K=K1+K2+K3为总的属性类别数; S2、对S1中构建的深度神经网络模型进行训练,特征提取模块、特征金字塔模块和多标签识别模块的各个网络层次的参数以学习的方式确定; S3、针对待识别图像将其输入经过S2中训练的深度神经网络模型中,由多标签识别模块输出对应的预测标签若向量的第j个元素大于预设的阈值τ,则判定输入图像具备第j个属性。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工商大学,其通讯地址为:310018 浙江省杭州市下沙高教园区学正街18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。