Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国人民解放军国防科技大学郑永斌获国家专利权

中国人民解放军国防科技大学郑永斌获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国人民解放军国防科技大学申请的专利一种基于双流全局关系学习的遥感图像旋转目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120375195B

龙图腾网通过国家知识产权局官网在2025-11-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510462530.6,技术领域涉及:G06V20/10;该发明授权一种基于双流全局关系学习的遥感图像旋转目标检测方法是由郑永斌;孙鹏;姚鉴航;徐婉莹;杨健松;高亚;陆小平设计研发完成,并于2025-04-14向国家知识产权局提交的专利申请。

一种基于双流全局关系学习的遥感图像旋转目标检测方法在说明书摘要公布了:本发明涉及遥感图像目标检测技术领域,具体涉及一种基于双流全局关系学习的遥感图像旋转目标检测方法;该方法分为以下步骤:S1构建遥感图像目标检测网络;S2训练遥感图像目标检测网络;S3应用训练好的遥感图像目标检测网络进行遥感图像旋转目标检测;与传统的遥感图像目标检测方法相比,本发明提供的基于双流全局关系学习的遥感图像旋转目标检测方法,该方法构建物体与物体之间关系的动态网络,通过强语义特征来强化类别混淆特征;引入外部常识知识,通过特征映射对类别混淆特征进行特征强化,从而改善遥感图像目标检测网络对复杂场景的准确性和鲁棒性。

本发明授权一种基于双流全局关系学习的遥感图像旋转目标检测方法在权利要求书中公布了:1.一种基于双流全局关系学习的遥感图像旋转目标检测方法,其特征在于,该方法分为以下步骤: S1构建遥感图像目标检测网络 所述遥感图像目标检测网络包括基础检测网络、双流全局关系学习网络和精修检测网络,三个部分依次级联,输入为待识别图像集I,第i帧待识别图像i∈I的尺寸为m×m,m表示待识别图像的像素值,m为正整数;具体如下: S1.1构建基础检测网络,预测目标的初始位置、类别信息和置信度 所述的基础检测网络由特征提取骨干网络、多尺度特征提取网络和初始检测网络组成: 特征提取骨干网络为标准ResNet网络,用于从待检测图像中提取多尺度特征,生成多尺度特征[C1,C2,C3,C4,C5]; 多尺度特征提取网络为标准特征金字塔网络FPN,用于将特征提取骨干网络生成的多尺度特征[C1,C2,C3,C4,C5]融合,得到融合后的多尺度特征[P2,P3,P4,P5,P6],用于初始检测网络提取待识别图像中目标的初始位置和类别信息; 初始检测网络由区域建议网络RPN、置信区域对齐网络RoIAlign、分类子网络和定位子网络组成;其中,RPN用于从待识别图像中提取置信区域建议,RoIAlign用于根据置信区域建议从融合后的多尺度特征[P2,P3,P4,P5,P6]中提取置信区域建议特征,得到的置信区域建议特征通过定位子网络生成待识别图像中目标的初始位置,通过分类子网络生成待识别图像中目标的类别信息和置信度; S1.2根据预测目标的置信度,从置信区域建议特征中提取类别混淆特征 根据预测目标的置信度,将对应的置信区域建议划分为正样本和类别混淆样本,正样本所对应的置信区域建议特征用表示,类别混淆样本所对应的置信区域建议特征为类别混淆特征,用表示,其中,j为置信区域建议特征的序号,nr和nc分别代表正样本和类别混淆样本的数量;通过一个特征映射操作,将生成的ri,j和ci,j映射到统一的潜在空间; S1.3构建双流全局关系学习网络,对类别混淆特征进行特征强化 所述的双流全局关系学习网络由动态相关性学习DCL网络和全局关系映射GKM网络构成; S1.3.1动态相关性学习网络 所述的动态相关性学习网络以S1.2中映射后的ri,j和ci,j为节点,构建关系图Gr={Vr,Er,Ar},其中,Vr=ri,j∪ci,j表示潜在空间中所有节点的集合,包含潜在空间中的所有特征;Ar表示每个节点之间关系的邻接矩阵;Er是具有相关性的两个特征的边的集合,两个特征的相关性sm,n通过皮尔逊相关性系数计算得到: 其中sm,n∈S表示矩阵S中的元素,m和n分别表示两个特征的序号,表示相关性矩阵,表示矩阵S的尺寸,M表示矩阵S的维度,fm和fn是从ri,j和ci,j的并集中采样的特征; 基于构建的关系图Gr,所述的动态相关性学习网络以潜在空间的特征为输入,使用动态图卷积网络DynamicGCN更新关系图Gr中的节点以实施全局关系学习,通过动态更新关系图的方式对类别混淆特征进行特征强化: Zl=σSXlWl,2 其中l=1,2,3,...,L为DynamicGCN的层索引,L表示DynamicGCN总层数,Xl为第l层的输入,DynamicGCN的初始输入X0为潜在空间中的特征,即ri,j∪ci,i,为第l层的可学习权重矩阵,表示可学习权重矩阵W的尺寸,C表示可学习权重矩阵W的维度,σ为非线性激活函数;将第l层的输出Zl作为注意力权重乘以初始输入X0,输出为更新后的特征Gl;特征更新的过程可以表示为: Gl=Zl⊙X03 S1.3.2全局关系映射模块 所述的全局关系映射模块基于公开的遥感图像目标检测数据集中的标记信息生成常识知识库,常识知识库用于统计遥感图像目标检测数据集中物体的空间位置相关性、主谓相关性和类别共现频率等信息,构建遥感图像中感兴趣类别之间的类别相关性矩阵P; 然后,全局关系映射模块定义一个知识图用于构建待识别图像集I中所有感兴趣的类别之间的相关性,其中为知识图Gc中节点的集合,εc为感兴趣类别之间相关性的集合,εi,j∈εc为集合εc中的元素,通过一个两层的多层感知器MLP学习: εi,j=MLPα·,·4 其中,α·,·表示每个感兴趣类别之间的范式,·,·表示任意一对感兴趣类别; 基于常识知识库和知识图Gc,所述的全局关系映射模块以初始检测网络的分类子网络的权重M作为全局语义池并引入一种软映射方法将类别相关性矩阵P中的先验知识传播到全局语义池中,输出的特征用于强化类别混淆特征,该过程可以表示为: 其中,FE表示经过全局关系映射模块强化后的特征,为所有图共享的变换权重矩阵; S1.4构建精修检测网络,输出检测结果 所述的精修检测以S1.3.1动态相关性学习网络输出的更新后的特征Gl和S1.3.2全局关系映射模块输出的强化后的特征FE为输入,通过一个两层的全连接层将输入特征转换为包含精细化后的目标位置特征Freg和类别特征Fcls,用于指示待识别图像中的目标位置和类别; S2训练遥感图像目标检测网络 S2.1同时选取遥感图像数据集DOTA、HRSC2016和DIOR-R作为训练数据集; S2.2设计损失函数 训练所使用的损失函数L由分类损失、定位损失和动态相关性学习损失三个部分组成,具体形式如下: 其中,k是锚点的索引,N是一个训练步长中的样本总数,检测真值表示待识别图像中目标的真实类别和位置信息;pk*是第k个锚点的检测真值的类别信息,pk是精修检测网络输出的第k个锚点的类别信息;表示检测真值的位置信息,tk表示精修检测网络输出的目标的位置信息;Fcls是交叉熵损失函数,Freg为SmoothL1损失函数,Nroi是区域建议特征的数量,是用于优化动态相关性学习网络的损失函数,该函数基于交叉熵函数构建,表示预测的目标类别概率,gjl是动态相关性学习网络的输出Gl的第j个特征; S2.3利用S2.1的训练数据集进行网络训练; S3应用训练好的遥感图像目标检测网络进行遥感图像旋转目标检测 S3.1将待识别图像集I输入到S2训练好的遥感图像目标检测网络模型; S3.2计算并输出待识别图像中目标的位置特征Freg和类别特征Fcls,位置特征Freg的各个特征点包含对应位置的位置信息,类别特征Fcls的各个特征点包含对应位置的类别信息; S3.3根据类别特征中Fcls各类别的得分判断该特征点的目标的存在性:对于存在目标的特征点,根据Fcls最高得分的特征所处的位置确定目标的类别,根据位置特征Freg所包含的位置信息确定目标的位置; S3.4输出待识别图像中的预测目标的位置和类别信息。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军国防科技大学,其通讯地址为:410073 湖南省长沙市开福区德雅路109号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。