安徽理工大学夏晨星获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉安徽理工大学申请的专利一种基于多级特征和上下文信息融合的RGB-D显著性目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116778180B 。
龙图腾网通过国家知识产权局官网在2026-04-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310518001.4,技术领域涉及:G06V10/44;该发明授权一种基于多级特征和上下文信息融合的RGB-D显著性目标检测方法是由夏晨星;陈迪逢;陈玉婷;葛斌设计研发完成,并于2023-05-09向国家知识产权局提交的专利申请。
本一种基于多级特征和上下文信息融合的RGB-D显著性目标检测方法在说明书摘要公布了:本发明属于计算机视觉领域,公开了一种基于多级特征和上下文信息融合的RGB‑D显著性目标检测方法,包括以下步骤:1将VGG‑16作为主干框架对RGB图像和深度图像提取多尺度信息然后进行编码;2利用提出的细节增强融合模块和语义增强融合模块分别融合低层特征中的细节信息和高层特征中的语义信息;3用多尺度感受野增强模块来获得网络中丰富的上下文信息;4构建密集连接特征金字塔解码器,将这些特征输入到解码器中生成显著性结果;5采用二元交叉熵来训练本发明的模型,计算出在不同像素下的预测值和真实值之间的误差。
本发明授权一种基于多级特征和上下文信息融合的RGB-D显著性目标检测方法在权利要求书中公布了:1.一种基于多级特征和上下文信息融合的RGB-D显著性目标检测方法,其特征在于,该方法包括以下步骤: 1将VGG-16作为主干框架对RGB图像和深度图像提取多尺度信息然后进行编码; 2利用提出的细节增强融合模块和语义增强融合模块分别融合低层特征中的细节信息和高层特征中的语义信息; 所述步骤2具体方法是: 2.1为了在每一层提取更有效的特征用于显著性目标检测,提出了细节增强融合模块DEFM融合前两层的特征,以更好地细化显著性边界,使用语义增强融合模块SEFM融合后三层的特征,来粗略定位显著对象; 2.2前两层的特征由细节增强融合模块来进行融合,使用通道注意力和空间注意力机制来生成增强后的特征,然后再通过元素级联两个增强后的特征,生成新的融合特征,描述如下: 其中和分别表示来自RGB和深度流的i层特征,Conv3×3表示核为3×3的卷积运算,CA·和SA·表示通道注意力和空间注意力,Fi+1表示来自第i+1个融合模块的输出特征; 2.3后三层的特征由语义增强融合模块来进行融合,描述如下: 其中和分别表示来自RGB和深度流的i层特征,Conv3×3表示核为3×3的卷积运算,CA·和SA·表示通道注意力和空间注意力,Fi+1表示来自第i+1个融合模块的输出特征; 3用多尺度感受野增强模块来获得网络中丰富的上下文信息; 所述步骤3具体方法是: 3.1构建多尺度感受野增强模块,通过不同大小的卷积核与不同填充率的空洞卷积的并联操作来增大感受野,更好的获取上下文语义信息; 3.2首先将步骤2中DEFM和SEFM生成的融合特征输入到感受野增强模块中,先通过1×1卷积来减少网络模型的计算量和复杂性,然后输入特征分别通过3×3、5×5、7×7的卷积核生成新的特征,具体过程如下: 其中CA·代表通道注意力机制,Conv3×3、Conv5×5、Conv7×7分别代表核为3×3、5×5和7×7的卷积操作; 3.3然后将新特征输入到填充率为1、2、4的3×3卷积核空洞卷积来获得多尺度特征Z1、Z2和Z3,最后将获得的多尺度特征进行级联得到新特征描述如下: 其中Conv1、Conv2、Conv4代表填充率分别为1、2、4的3×3卷积; 4构建密集连接特征金字塔解码器,将这些特征输入到解码器中生成显著性结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人安徽理工大学,其通讯地址为:232001 安徽省淮南市山南新区泰丰大街168号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励