武汉理工大学陈亚雄获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉武汉理工大学申请的专利一种联合多注意及Transformer的高光谱图像分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115439679B 。
龙图腾网通过国家知识产权局官网在2025-08-26发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210913725.4,技术领域涉及:G06V10/764;该发明授权一种联合多注意及Transformer的高光谱图像分类方法是由陈亚雄;张波;师悦天;张志鹏;熊盛武设计研发完成,并于2022-08-01向国家知识产权局提交的专利申请。
本一种联合多注意及Transformer的高光谱图像分类方法在说明书摘要公布了:本发明公开了一个联合多注意和TransformerEncoder结构的网络来充分提取HSI的空间光谱特征。多注意模块包括通道注意和空间注意,以进一步关注重要频带和区域的信息。此外,本发明还提出了一种多层密集自适应融合模块,以充分集成浅层、中层和深层信息。使得特征表示和学习后的混合信息包含了多层次的特征。另外,我们提出了一个在标签平滑交叉熵的基础上调整的Lpoly损失来动态地改变地物类别真实预测标签的概率。该网络在三个公共高光谱分类数据集上进行了测试,显示了良好的分类性能。结果表明,该方法对提取高光谱图像中的深层语义信息非常有效。
本发明授权一种联合多注意及Transformer的高光谱图像分类方法在权利要求书中公布了:1.一种联合多注意及Transformer的高光谱图像分类方法,其特征在于,包括如下步骤: 步骤1,划分训练数据集和测试数据集; 步骤2,针对训练数据集中的原始高光谱数据,对其进行降维; 步骤3,对降维后的数据将其分成若干个数据立方体块并执行三维卷积层,获得三维特征图; 步骤4,执行包含通道注意、二维卷积层和空间注意的多注意力模块,获得二维特征图; 步骤5,将每个二维特征映射展平成一个一维特征向量; 步骤6,通过高斯加权特征表示器模块生成语义标记; 步骤7,将一个全零向量作为可学习分类标记与步骤6中生成的语义标记连接起来形成融合后的语义标记,连接起来形成融合后的语义标记,并在融合后的语义标记上嵌入位置信息; 步骤8,执行多层密集自适应融合模块对嵌入位置信息的融合后的语义标记进行特征提取; 步骤8中的多层密集自适应融合模块包含一个3层的TransformerEncoder结构,另外,采取的跨层连接方式为:先将第一层得到的特征与第三层自适应融合,再将融合后的信息与第二层特征执行自适应融合; 步骤9,将第一个分类标记输入到最后一个线性层; 步骤10,使用softmax函数来识别标签; 步骤11,设计损失函数训练由步骤3-步骤10构成的整体网络,然后针对测试数据集进行测试; 步骤11中使用的损失函数是在标签平滑交叉熵的基础上对第一项多项式进行调整,将改进后的loss取名Lpolyloss,设Pt是模型对目标地面真实类别的预测概率,详细推理步骤如下: 首先,1-Pti的交叉熵Cross-Entropy,CE损失的泰勒展开为: 利用梯度下降法优化交叉熵损失需要采用Pt的梯度: 基于标签光滑交叉熵,调整了交叉熵的第一个多项式系数,这样就可以根据任务以及数据集本身的差异性动态地调整地物类别真实预测标签的概率,公式表示如下: 其中CEi表示i的标准交叉熵损失,λ是一个小的正数,ε是一个大于-1的数,i是正确的类,N是类的数量,Pt是模型对目标地面真实类的预测概率。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉理工大学,其通讯地址为:430070 湖北省武汉市洪山区珞狮路122号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。