重庆邮电大学熊炫睿获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉重庆邮电大学申请的专利一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115497005B 。
龙图腾网通过国家知识产权局官网在2026-02-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211078264.X,技术领域涉及:G06V20/13;该发明授权一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法是由熊炫睿;徐稳;张宇樊;方海领;林为琴;陈怡设计研发完成,并于2022-09-05向国家知识产权局提交的专利申请。
本一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法在说明书摘要公布了:本发明涉及一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法,包括:通过Mosaic数据增强方法预处理遥感图像数据;构建融合特征转移与注意力机制的YOLOV4遥感目标检测模型;将所述的遥感数据输入到所述的模型进行训练;获取待检测的遥感图像,将遥感图像预处理至统一大小;将处理后的遥感图像输入到训练好的目标检测模型进行检测,输出检测结果即待检测图像中遥感目标的边界框位置以及目标类别。本发明通过改进YOLOV4,融合特征转移与注意力机制,在不明显增加模型参数量的前提下可显著提升检测精度。
本发明授权一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法在权利要求书中公布了:1.一种融合特征转移与注意力机制的YOLOV4遥感目标检测方法,其特征在 于:该方法包括以下步骤: S1,通过Mosaic数据增强方法对遥感数据集进行处理,丰富遥感目标信息,所述Mosaic数据增强方法具体包括:S11读取训练用遥感图像,将得到的图像转换为RGB图像,同时调整图像到统一大小,需要将图像尺寸统一到32整数倍大小,S12对上述图像进行随机翻转,图像色域进行随机变换,同时根据前面处理结果调整训练图像真实边界框到相应位置,S13通过Mosaic方法处理训练用遥感图像,即随机选取四张图像进行分割,对分割后的图像进行重新组合; S2,构建融合特征转移和注意力机制的YOLOV4遥感目标检测模型; 所述模型包括特征提取网络、并行注意力模块、语义增强的PANet和特征转移模块,具体构建步骤如下:S21遥感目标检测网络特征提取网络选用CSPDarkNet53,该网络通过堆叠跨级连接的残差网络实现,具有更强大的特征提取能力;CSPDarkNet53的基本结构为跨级残差块CPSX以及CBM,跨级残差块分为两个部分,其中第一个部分直接进行残差块堆叠得到,第二个部分作为残差边,经过卷积运算处理后与所述第一个部分进行堆叠,S22并行注意力机制由两个部分构成,第一个部分是改进的高效通道注意力机制模块,在卷积神经网中,每个特征图都具有偏重特性,不同的通道可以捕获不同的特征,对于卷积神经网络而言,不同通道层次的特征图对于具体任务的贡献率也不同,而通道注意力机制可以衡量不同通道的重要性,所述的注意力机制根据以下计算步骤,输出最终的注意力加权特征图: 1,分别通过全局平均池化以及全局最大池化得到两组关于通道的特征值,将得到的两组特征值输入自适应一维卷积继而分别能进一步得到两组注意力权值, X1=Conv1dGAPX X2=Conv1dGMPX X为输入的特征图,GAP与GMP分别表示全局平局池化和全局最大池化,Conv1d表示自适应一维卷积,其卷积核个数k由以下公式确定: C指输入特征图通道个数,|t|odd表示距离t最近的奇数,而b和γ分别取2和1; 2,将上述得到的特征图进行逐像素相加,得到特征权值Xs; 3,用sigmoid激活函数激活得到的特征值,将各特征归一化至0到1之间; 4,得到通道注意力注意力权重后,通过对应权重大小对输入特征图通道进行重新加权,得到最后注意力加权的特征图Xo;所述的并行注意力机制的第二个部分是空间注意力部分,对于输入的特征图,在二维空间层次上,各特征点对于特征表达的贡献度也不相同,空间注意力机制可以捕获二维空间上不同像素点的重要性,空间注意力计算步骤包括以下几个部分:1,通过分别对输入特征图X的二维空间对应的通道方向上求最大值和平均值可以分别得到两个通道数为1的特征图,X1=meanCX,X2=maxCX,其中的meanC和maxC分别表示对输入特征图求通道方向平均值和最大值;2,将得到的两组特征图进行堆叠得到特征图Xc,Xc=catX1,X2,其中cat表示将特征图按照通道方向堆叠操作;3,将上一步得到的特征图输入到一个3X3大小的卷积核做卷积运算,得到特征图Xc′,Xc′=Conv2d3X3Xc; 4,将上述步骤得到的空间特征权值进行概率化,通过softmax函数生成空间注意力特征权值,其各特征点X′i,j计算方式为: 其中的Xi,j表示输入特征Xc′空间上的各个特征点;5,在得到空间注意力特征权重后,用对应的空间注意力特征权值对输入特征图进行空间特征加权,各特征点组合得到加权后的特征Xos;所述的并行注意力特征图Xout由上述两个部分的注意特征图逐像素相加得到,S23所述的语义信息增强的PANet的构建步骤如下: 1,将上述处理过的遥感图像输入到主干网络,在主干网络最终3个有效特征层上,特征图分别下采样至输入特征的18,116,132;记特征图分别为O1,O2,O3;2,将所述的O3经过上采样,同时经过5次卷积处理后与O2按通道方向拼接得到O2′,将O2′同样经过上采样以及5次卷积后与O1通道方向融合得到O1′;3,将1得到的O3经过上采样后,通过CBLGS模块得到特征值,所述的CBLGS模块分别包括为1X1卷积,批量归一化,LeakyRelu激活函数,全局平均池化以及Sigmoid激活函数,将得到的特征值与O2′相乘后再进行逐像素相加得到O2″,依照同样的方式可以得到O1″;4,将所述的O1″通过下采样,并通过5次卷积后与O2″按通道方向进行融合得到O2″′;将O2″′下采样后与O3按通道方向融合得到O3′;5,所述的语义信息增强的PANet输出的3个特征层C3,C4,C5由以下方式得到步骤S24得到,S24特征转移用于接收PANet输出特征,做特征重构,具体包括:1,C4通过CUGS模块后,与C3进行逐像素相乘再相减得到输出的检测特征P3,其中CUGS模块分别包括了1X1卷积,上采样,全局最大池化,以及Sigmoid激活函数;2,将C4通过CMGS模块后,与C5进行逐像素相乘后在相加,得到最后的输出P5;CMGS模块分别包括了1X1卷积,2X2最大池化,全局最大池化以及Sigmoid激活函数,最终的特征转移模块输出得到P3,P4,P5;P4=C4; S3,将S1处理得到的遥感图像数据集输入上述模型进行训练;训练采用Adam优化算法,初始学习率为0.001,最小学习率为0.00001; 每个批次中Mosaic数据增强的概率为0.5;损失函数为CIOU回归框损失、交叉熵置信度损失与交叉熵分类损失的总和; S4,预处理待检测遥感图像,将遥感图像的尺寸统一到与训练图像一致的大小; S5,将处理后的遥感图像输入到训练好的目标检测模型进行检测:模型输出13×13、26×26、52×52三个尺度的预测结果并融合,得到10647个候选框;若检测N类目标,输出二维向量维度为10647,N+5,其中N为类别数,“N+5”包含N个类别、4个边界框参数、1个置信度;通过非极大抑制算法过滤置信度低于阈值的候选框,输出最终检测结果,即待检测图像中遥感目标的边界框位置以及目标类别。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆邮电大学,其通讯地址为:400065 重庆市南岸区崇文路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励