Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京理工大学崔珂获国家专利权

南京理工大学崔珂获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京理工大学申请的专利一种基于深度神经网络的干涉图自动配准和相位解包方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115205349B

龙图腾网通过国家知识产权局官网在2025-11-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210969274.6,技术领域涉及:G06T7/30;该发明授权一种基于深度神经网络的干涉图自动配准和相位解包方法是由崔珂;叶剑波;朱日宏;李翔宇设计研发完成,并于2022-08-12向国家知识产权局提交的专利申请。

一种基于深度神经网络的干涉图自动配准和相位解包方法在说明书摘要公布了:本发明公开了一种基于深度神经网络的干涉图自动配准和相位解包方法,具体为:通过仿真生成真实相位和包裹相位,添加噪声;由包裹相位生成干涉图,通过对干涉图平移旋转以模拟实际采集中存在的系统抖动,生成数据集;设置深度神经网络模型、优化算法,使用混合损失函数和生成的数据集对深度神经网络进行训练;根据评价指标,判断相位恢复效果是否满足要求,若满足则进入下一步;不满足则更改网络结构,修改优化函数、学习率和损失函数等参数的数值,并重新训练;将实际采集的干涉图,作为深度神经网络模型的输入,计算得到预测的真实相位。本发明提出的方法不需要对干涉图配准,减少了计算时间,具有良好的抗噪声能力,提高了相位解包的准确性。

本发明授权一种基于深度神经网络的干涉图自动配准和相位解包方法在权利要求书中公布了:1.一种基于深度神经网络的干涉图自动配准和相位解包方法,其特征在于,包括以下步骤: 步骤S1、通过仿真生成二维真实相位,并计算二维包裹相位,添加噪声; 步骤S2、根据二维包裹相位计算生成相应光强干涉图,通过对图像随机平移旋转来模拟实际采集中存在的系统抖动,生成数据集; 步骤S3、设置深度神经网络模型结构、参数、优化算法,使用混合损失函数和步骤2生成的数据集对深度神经网络模型进行训练; 步骤S4、根据结构相似度、峰值信噪比这些评价指标,判断相位恢复效果是否满足要求,若满足则进入调制步骤S5;不满足则更改网络结构,修改优化函数、学习率和损失函数这些参数的数值,并转至步骤S3重新训练; 步骤S5、将真实系统采集的光强干涉图,作为训练后深度神经网络模型的输入,经计算得到预测的真实相位; 步骤S3中所述设置深度神经网络模型结构、参数、优化算法,其中优化算法采用Adam算法,网络模型结构如下: 深度神经网络模型结构基于残差块的U-Net,光强干涉图作为网络输入,输出对应真实相位; 深度神经网络模型包括编码器、瓶颈层、解码器;编码器有4层,每一层由2连续的残差块构成,每一层的输出作为下一层的输入和对应编码器层的输入;瓶颈层包含2个连续的残差块;解码器和编码器的层数相同,每一层包含一个上采样层和2个连续的残差块用于特征的解码;解码器最后一层输出的特征图经过1×1卷积后输出真实相位; 步骤S3中所述使用混合损失函数和步骤2生成的数据集对深度神经网络模型进行训练,混合损失函数的公式如下: ; 其中和为超参数,设置为0.14,设置为0.86; 平均绝对误差损失公式为: ; 其中,x表示实际的真实相位,y表示深度神经网络模型输出的预测真实相位,N表示真实相位的矩阵元素个数; 多尺度结构相似度损失公式为: ; 其中,、分别表示将原图像进行j次连续的低通滤波和采样间隔为2的下采样后计算对比度项、结构项,M表示连续的低通滤波总次数; 亮度项公式为: ; 对比度项公式为: ; 结构项公式为: ; 其中,分别代表x和y的均值,分别代表x和y的标准差,表示x和y的协方差,是常数值,满足: ; ; ; 其中,B=8。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。