燕山大学宫继兵获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉燕山大学申请的专利一种基于概率图和ViT模型的图片分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115953617B 。
龙图腾网通过国家知识产权局官网在2025-08-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211555848.1,技术领域涉及:G06V10/764;该发明授权一种基于概率图和ViT模型的图片分类方法是由宫继兵;彭吉全;林宇庭;赵金烨;丛方鹏设计研发完成,并于2022-12-06向国家知识产权局提交的专利申请。
本一种基于概率图和ViT模型的图片分类方法在说明书摘要公布了:本发明涉及一种基于概率图和ViT模型的图片分类方法,属于计算机视觉图片分类技术领域,将多头注意力机制从概率论的角度进行建模,将多头注意力中的attentionvalue看作隐变量,利用概率图模型的Explaining‑awayEffects以及Transformer的层级结构,将attentionlogits层层传递,并将相邻层的值进行融合,促进不同头部之间的交互。本发明针对普通VisionTransformer模型中多头注意力机制头部参数的冗余问题,将多头注意力机制建模为概率图模型,将注意力值看作隐变量,促进不同注意力头部之间的交互。
本发明授权一种基于概率图和ViT模型的图片分类方法在权利要求书中公布了:1.一种基于概率图和ViT模型的图片分类方法,其特征在于,包括以下步骤: S1、将输入模型的图片进行分块,然后将每个图片块展平成一维向量,最后通过线性变换生成patchembedding; S2、给每个patchembedding加上位置编码,补充位置信息; S3、增加一个用于分类的Token,学习其他图片patch的整体信息; S4、基于头部交互的TransformerBlock,把attentionvalues看作隐变量,利用概率图模型中的Explaining-awayEffects以及Transformer的层级结构,将attentionlogits层层传递,并将相邻层的值进行融合,促进不同头部之间的交互;S4的具体步骤为: S41、attentionhead序列建模,将attentionvalue看作隐变量, pY∣X=∫ApY∣A,XpA∣XdA 其中,Y为图片label,X为输入照片,A为中间层Attentionvalues,pA∣X是联合先验分布; S42、Transformer层次化建模,利用transformer的层级结构,将此过程可表示为: 其中,Aj表示第j层的attention分布,Aj的计算需要依赖Aj-1的递归结构,具体来讲,Aj的计算通式如下: S43、相邻层的attention融合,在Transformer的层级Block的多头注意力计算模块添加MLP,将各层之间的attentionvlaue进行融合交互,促进不同头部的去冗余,将此过程可表示为: Aj=softmaxzj+MLPzj,zj-1 其中,zj为第j层的attentionlogits,MLP是两层全连接层,用于相邻层注意力值得融合交互; S5、使用两层全连接层,将分类Token输入分类层,得到图片的分类结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人燕山大学,其通讯地址为:066004 河北省秦皇岛市海港区河北大街438号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。