浙江大学卓成获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江大学申请的专利一种基于扩散模型-卷积神经网络的多模态图像融合方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119495002B 。
龙图腾网通过国家知识产权局官网在2025-11-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411507384.6,技术领域涉及:G06V10/80;该发明授权一种基于扩散模型-卷积神经网络的多模态图像融合方法是由卓成;卢旭东;孙奇;尹勋钊;姜钰琪设计研发完成,并于2024-10-28向国家知识产权局提交的专利申请。
本一种基于扩散模型-卷积神经网络的多模态图像融合方法在说明书摘要公布了:本发明公开一种基于扩散模型‑卷积神经网络的多模态图像融合方法,包括全局信息建模,局部细节特征提取,设计互补特征聚合模块,设计多样化损失函数。网络模型由基于扩散和基于CNN的两个分支组成,在扩散分支中,根据提出的时间步选择策略向原始输入X0引入噪声,并在去噪过程中提取中间特征,以实现全局信息建模;在CNN分支中,使用多尺度卷积核和注意力模块提取和整合局部详细特征;随后,利用提出的互补特征聚合模块CFAM生成基于坐标注意力的注意力图谱,以捕捉各支路特征之间的长距离依赖关系,从而实现有效聚合;最终,聚合结果被输入到融合头,以获得融合结果。
本发明授权一种基于扩散模型-卷积神经网络的多模态图像融合方法在权利要求书中公布了:1.一种基于扩散模型-卷积神经网络的多模态图像融合方法,其特征在于,包括以下步骤: S1.全局信息建模:通过引入噪声并利用去噪U-Net提取多尺度特征,利用基于扩散模型的网络分支捕获并建模图像的全局信息;在若干个时间步下,对图像执行单步的加噪-去噪过程,并提取扩散模型的中间特征用于表征全局信息,具体操作为: 首先,在扩散分支中,通过单步过程向原始输入图像X0引入高斯噪声,获得特定时间步t的噪声图像Xt,即: 其中,∈是满足独立高斯分布的噪声,是一组预定义的方差参数; 然后,将带有噪声的图像Xt输入到扩散模型中,进行单步去噪处理,计算公式如下: 其中,Xt-1是对应时间步t-1的噪声图像,z是对标准正态分布的采样,∈θXt,t是对于真实噪声的预测,σt和αt是预定义的参数,即在根据扩散时间步为t的图像预测扩散时间步为t-1的图像时,模型捕获到图像的全局特征信息; S2.局部细节特征提取:通过多尺度卷积层和混合注意力模块提取多尺度局部细节特征,并利用多尺度特征聚合器增强层次化特征表示;通过多尺度特征聚合器逐步合并各个尺度的特征,具体如下: 首先,将前置层的特征上采样与后一层的尺寸相匹配,然后通过多层感知机制生成缩放因子γ和偏置β来调节多尺度特征配比,计算公式如下: 其中,表示第k+1层卷积对应的特征,⊙表示逐元素相乘,γk是缩放参数,βk是偏移参数,通过这一过程,多尺度局部细节特征被有效融合到局部细节特征FC中,得到原始纯净图像的多尺度细节特征,与扩散支路形成互补; S3.设计互补特征聚合模块:通过在多个一维空间方向上计算强度张量,得到基于坐标注意力机制的权重图谱,捕捉全局信息与局部细节特征之间的长距离依赖关系,并利用支路互补性,进行特征聚合;互补特征聚合模块的具体工作流程如下: 首先,按照下面的公式提取支路特征F的一维正交方向注意力张量Fx和Fy: Fx,Fy=XAPF,YAPF, 其中,XAP和YAP分别表示沿水平和垂直方向对特征进行平均池化,获得对应方向的特征显著性信息; 然后,将尺寸分别为h×1和1×w的两个一维强度张量相乘,得到尺寸为h×w的坐标注意力图谱矩阵W,该图谱反映了所有方向的长距离依赖关系,CFAM通过以下公式聚合全局信息FD和局部细节特征FC: FR=W⊙FC+1-W⊙FD, 其中,FR表示聚合特征,通过网络训练得到坐标注意力图谱; 最后,聚合后的特征被送入融合头以生成多模态图像融合结果; S4.设计多样化损失函数:通过结合强度损失、梯度损失和余弦相似度损失,探索特征之间的互补性。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江大学,其通讯地址为:310058 浙江省杭州市西湖区余杭塘路866号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励