Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 齐齐哈尔大学石翠萍获国家专利权

齐齐哈尔大学石翠萍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉齐齐哈尔大学申请的专利基于光谱空间融合Transformer特征提取的地物分类方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116229153B

龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310041746.6,技术领域涉及:G06V10/764;该发明授权基于光谱空间融合Transformer特征提取的地物分类方法是由石翠萍;廖帝灵;苗凤娟;陶佰睿;王天毅设计研发完成,并于2023-01-11向国家知识产权局提交的专利申请。

基于光谱空间融合Transformer特征提取的地物分类方法在说明书摘要公布了:基于光谱空间融合Transformer特征提取的地物分类方法,本发明涉及地物分类方法。本发明的目的是为了解决现有DL方法一方面,采用局部提取和全局参数共享机制的CNN更关注空间内容信息,从而使学习特征中的频谱序列信息发生扭曲;另一方面,CNN很难描述HSI像素与波段之间的长距离相关性的问题。过程为:一、建立光谱空间融合多头双自注意力Transformer特征提取的分类网络,基于训练集获得训练好的网络;二、将待测图像输入训练好的网络,完成对待测图像的分类;所述光谱空间融合多头双自注意力Transformer特征提取的分类网络包括SpaFormer、SpeFormer、AS2FM和分类器。本发明用于高光谱图像分类领域。

本发明授权基于光谱空间融合Transformer特征提取的地物分类方法在权利要求书中公布了:1.基于光谱空间融合Transformer特征提取的地物分类方法,其特征在于:所述方法具体过程为: 一、建立光谱空间融合Transformer网络S2FTNet,基于训练集获得训练好的光谱空间融合Transformer网络S2FTNet; 二、将待测图像输入训练好的光谱空间融合Transformer网络S2FTNet,完成对待测图像的分类; 所述光谱空间融合Transformer网络S2FTNet包括空间Transformer模块SpaFormer、光谱Transformer模块SpeFormer、自适应光谱空间融合机制AS2FM和分类器; 所述空间Transformer模块SpaFormer包括三维卷积块、二维卷积块和三个改进的Transformer块一; 所述每个卷积块Conv均包含卷积层、批归一化层和非线性激活层; 所述每个改进的Transformer块一包括位置嵌入、2个层归一化、一个多头双自注意力和多层感知机; 所述光谱Transformer模块SpeFormer包括改进的Transformer块二; 改进的Transformer块二包括两个层归一化、一个多头双自注意力、两个卷积块和一个高斯误差线性单位; 所述建立光谱空间融合Transformer网络S2FTNet,基于训练集获得训练好的光谱空间融合Transformer网络S2FTNet;具体过程为: 对高光谱图像HSI数据X进行边缘填充策略处理;然后,将填充后得到新图像数据通过两种方式进行块提取: 一种是以填充后得到的新图像的每个像素为中心像素,并与相邻像素结合,组成数据块,并对组成的数据块进行光谱维主成分分析降维处理,得到数据 另一种是对填充后得到的新图像逐单一像素提取,得到数据 其中,s×s表示切块后的图像空间大小,b表示经过PCA降维后的光谱波段数量;L表示高光谱图像的波段数量; 将数据X_patch输入空间Transformer模块SpaFormer; 将数据X_pixel输入光谱Transformer模块SpeFormer; 将空间Transformer模块SpaFormer和光谱Transformer模块SpeFormer输出数据输入自适应光谱空间融合机制AS2FM进行级联,将级联后的特征向量输入分类器进行分类; 所述将数据X_patch输入空间Transformer模块SpaFormer;具体过程为: 首先,图像数据X_patch先经过三维卷积块,再经过二维卷积块; 每个卷积块中均包含卷积层、批归一化层和非线性激活层; 其中,图像数据X_patch先经过三维卷积块提取图像的光谱空间联合信息,计算过程表示如下 F3D=fδ1X_patchΘw3D+b3D1 式1中,w3D表示Conv3D的权重偏置,b3D表示Conv3D的偏置项,F3D表示Conv3D的输出;Θ为Conv3D算子,δ1表示Conv3D的批归一化操作,f·表示非线性激活函数ReLU; 三维卷积块输出特征经过二维卷积块,公式如下 F2D=fδ2F3D⊙w2D+b2D2 式2中,w2D表示Conv2D的权重偏置,b2D表示Conv2D的偏置项,F2D表示Conv2D的输出;⊙为Conv2D算子,δ2表示Conv2D的批归一化操作; 接着,将二维卷积块输出分别输入三个改进的Transformer块一;具体过程为: 每个改进的Transformer块一包含多个组件,包括位置嵌入、2个层归一化Norm、多头双自注意力和多层感知机; 第一个改进的Transformer块一的输入数据的空间大小s×s进行pooling=false操作,输出空间大小为[spooling]×[spooling],[·]表示上取整符号; pooling为池化操作,false表示无池化操作; 第二个改进的Transformer块一的输入数据的空间大小s×s进行pooling=2操作,输出空间大小为[spooling]×[spooling]; 第三个改进的Transformer块一的输入数据的空间大小s×s分别进行pooling=4操作,输出空间大小为[spooling]×[spooling]; 每个改进的Transformer块一首先引入了PE;具体为: 将输出空间大小为[spooling]×[spooling]的数据作为令牌T=[T1,T2,...,Tw′]与设定的可学习的分类令牌T0连接,并将设定的位置信息PEpos附加在所有令牌上,即 TPE=[T0,T1,T2,...,Tw′]+PEpos3 T=[T1,T2,...,Tw′]表示令牌数量; 将PE输出数据TPE依次输入归一化层Norm和一个多头双自注意力MHD-SA; 多头双自注意力MHD-SA表示如下 MHD-SA=ConcatDSA1,DSA2,...,DSAhW″4 其中,Concat·表示级联函数,h表示头部的数量,W″表示权重参数; 式中,DSA表示单头的双自注意力,SA表示自注意力值,LQ·、LK·和LV·表示SA值经过线性映射得到的特征,dk表示K的特征维度;表示LK·的特征维度;Q、K和V为三个输出特征的表示符号; 将PE的输出和多头双自注意力MHD-SA的输出进行加和,得到第一加和后数据,第一加和后数据依次输入归一化层Norm和MLP; MLP结构包含两个全连接层,且在两个全连接层之间嵌入一个高斯误差线性单位GELU; 将第一加和后数据和MLP的输出进行加和处理,得到第二加和后数据,第二加和后数据作为每个改进的Transformer块一的输出; 将三个改进的Transformer块一的输出进行级联作为空间Transformer模块SpaFormer的输出; 所述将数据X_pixel输入光谱Transformer模块SpeFormer;具体过程为: 首先,光谱Transformer模块SpeFormer引入PE;过程为: 图像数据X_patch先经过线性映射降维得到[T1′,T2′,...,Tw′],降维后与设定的可学习令牌T0′级联; 级联结果再进行位置嵌入,计算过程表示如下 T′PE=[T′0,T′1,T′2,...,T′w′]+PE′pos7 式中,[T′1,T′2,...,T′w′]表示令牌数量,PE′pos表示位置信息; 然后,将PE输出数据T′PE依次输入归一化Norm和一个多头双自注意力MHD-SA; 将PE输出数据T′PE和多头双自注意力MHD-SA的输出进行加和,得到第三加和后数据,第三加和后数据依次输入归一化层Norm、3×3卷积层、批归一化层BN、高斯误差线性单位GELU、3×3卷积层和批归一化层BN,得到BN输出数据; 将第三加和后数据和得到的BN输出数据加和,得到第四加和后数据,第四加和后数据作为光谱Transformer模块SpeFormer的输出。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人齐齐哈尔大学,其通讯地址为:161006 黑龙江省齐齐哈尔市建华区文化大街42号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。