哈尔滨工程大学崔颖获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉哈尔滨工程大学申请的专利基于上下文注意特征的高光谱图像分类方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116543203B 。
龙图腾网通过国家知识产权局官网在2026-03-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310451982.5,技术领域涉及:G06V10/764;该发明授权基于上下文注意特征的高光谱图像分类方法及系统是由崔颖;高山;李文山;罗丽;陈晓力设计研发完成,并于2023-04-24向国家知识产权局提交的专利申请。
本基于上下文注意特征的高光谱图像分类方法及系统在说明书摘要公布了:本发明公开了一种基于上下文注意特征的高光谱图像分类方法及系统,其中,该方法包括:获取原始高光谱数据构建数据集,并将其划分为训练集、验证集和测试集;构建双重注意力机制的特征融合网络模型;利用训练集对该模型进行训练;利用验证集在训练过程中对双重注意力机制的特征融合网络模型进行交叉验证,得到验证结果;筛选验证结果中最佳分类效果的双重注意力机制的特征融合网络模型作为目标分类模型,并通过目标分类模型对预设高光谱图像进行分类。该方法能提高少量训练样本下的分类精度,对初始标注样本的需求量不大,可节省人工标注类别信息所带来的时间成本,且鲁棒性也可得到保证,通过少量样本即可获得稳定的训练出效果可观的分类模型。
本发明授权基于上下文注意特征的高光谱图像分类方法及系统在权利要求书中公布了:1.一种基于上下文注意特征的高光谱图像分类方法,其特征在于,包括以下步骤: 步骤S1,获取原始高光谱数据构建数据集,并根据预设划分方式将所述数据集划分为训练集、验证集和测试集; 步骤S2,构建双重注意力机制的特征融合网络模型,其中,所述双重注意力机制的特征融合网络模型包括自注意位置校准模块、交叉注意位置校准模块和特征融合模块; 步骤S3,利用所述训练集对所述双重注意力机制的特征融合网络模型进行训练; 步骤S4,利用所述验证集在训练过程中对所述双重注意力机制的特征融合网络模型进行交叉验证,得到验证结果,其中,所述验证结果包括多个双重注意力机制的特征融合网络模型的分类效果; 步骤S5,筛选所述验证结果中最佳分类效果的双重注意力机制的特征融合网络模型作为目标分类模型,并通过所述目标分类模型对预设高光谱图像进行分类; 所述自注意位置校准模块包括:自注意力机制单元和全局位置自校准卷积单元,其中, 通过所述自注意力机制单元利用编码器对所述验证集中的高光谱数据的语义特征之间的全局上下文信息进行建模,得到全局上下文信息; 通过所述全局位置自校准卷积单元使所述验证集中的高光谱数据自适应地在每个位置处建立长距离空间我校准操作,得到在全局感受野下的全局位置特征信息; 将所述全局上下文信息和所述全局位置特征信息进行合并,获取所述全局上下文位置特征信息; 所述交叉注意位置校准模块包括:交叉注意力机制单元和局部位置自校准卷积,其中, 通过所述交叉注意力机制单元远程依赖所述验证集中的高光谱数据的局部上下文信息,从交叉路径中得到局部上下文信息; 通过所述局部位置自校准卷积单元使所述验证集中的高光谱数据自适应地在每个位置处建立长距离空间自校准操作,得到在全局感受野下的局部位置特征信息; 将所述局部上下文信息和所述局部位置特征信息进行合并,获取所述局部上下文位置特征信息; 所述特征融合模块包括:多尺度卷积单元和LIP池化单元,其中, 通过所述多尺度卷积单元捕获所述全局上下文位置特征信息和所述局部上下文位置特征信息中的不同层次特征信息; 通过所述LIP池化单元对所述不同层次特征信息进行局部重要性建模,进而进行特征融合得到所述融合后的全局-局部特征信息。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工程大学,其通讯地址为:150000 黑龙江省哈尔滨市南岗区南通大街145号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励