北京工业大学胡永利获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利一种基于参数共享的Vision Transformer简化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119625500B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411844156.8,技术领域涉及:G06V10/82;该发明授权一种基于参数共享的Vision Transformer简化方法是由胡永利;陈林林;尹宝才设计研发完成,并于2024-12-15向国家知识产权局提交的专利申请。
本一种基于参数共享的Vision Transformer简化方法在说明书摘要公布了:本发明公开了一种基于参数共享的VisionTransformer简化方法,步骤一:精简视觉骨干模型;步骤二:预训练图像分类模型;步骤三:训练目标检测和语义分割模型;本发明设计了一种新的参数共享MLP结构来减少ViT模型的参数,通过对线性层的镜像结构进行参数共享来减少MLP块的一半参数,将其与提出的轻量级注意力块相结合,构建一个高效的PSM‑Former模型。
本发明授权一种基于参数共享的Vision Transformer简化方法在权利要求书中公布了:1.一种基于参数共享的VisionTransformer简化方法,其特征在于,该方法的实施步骤如下: 步骤一:精简视觉骨干模型; S11精简ViT模型的注意力模块:对于输入的一张图像,首先对图像进行归一化处理,之后将图像送入自注意力层进行全局的特征提取;图像在进入自注意力层之前会进行下采样的操作,使自注意力层处理的Token数量减少;图像在经过自注意力层后再通过转置卷积层将尺寸还原为原来的大小,同时提取图像的局部特征,增强视觉表示; S12精简ViT模型的MLP模块:图像在经过注意力模块后,会经过MLP模块;注意力模块实现图像在空间层面的特征提取及交互,MLP模块实现图像在通道维度的交互;构建一个参数,并将其本身与其转置分别应用于MLP模块的升维层和降维层,在这两层卷积操作中使用同一个参数,从而实现参数量的降低; S13结合精简后的注意力模块与MLP模块,构建视觉骨干模型PSM-Former; 步骤二:预训练图像分类模型; S21输入:ImageNet-1K数据集中的训练数据; S22图像分类模型训练:在ImageNet-1K数据集上对PSM-Former进行预训练,使得模型准确提取图像特征; S23模型损失:使用交叉熵损函数对模型进行训练,并报告模型在ImageNet-1K验证集上的准确率; S24可视化:使用Grad-CAM工具来可视化视觉骨干模型PSM-Former在一张图片中的关注区域; S25输出:预训练后的图像分类模型; 步骤三:训练目标检测和语义分割模型; S31将步骤二中的视觉骨干模型PSM-Former作为检测器RetinaNet和MaskR-CNN的Backbone,构建新的目标检测模型,并将ImageNet-1K预训练的权重用于初始化PSM-Former; S32将步骤二中的视觉骨干模型PSM-Former作为语义分割头FPN的Backbone,构建新的语义分割模型,并将ImageNet-1K预训练的权重用于初始化PSM-Former; S33训练目标检测和语义分割模型,并报告目标检测和语义分割模型在COCO2017数据集上使用RetinaNet的目标检测结果和使用MaskR-CNN目标检测和实例分割结果以及使用FPN在ADE20K数据集上的语义分割结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100020 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励