南京理工大学沈华获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利一种基于GSCGAN的图像灰度立体转换方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114612900B 。
龙图腾网通过国家知识产权局官网在2025-09-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210213724.9,技术领域涉及:G06V20/69;该发明授权一种基于GSCGAN的图像灰度立体转换方法是由沈华;矫岢蓉;朱长美;卞殷旭;史乾佑;邢涛设计研发完成,并于2022-03-04向国家知识产权局提交的专利申请。
本一种基于GSCGAN的图像灰度立体转换方法在说明书摘要公布了:本发明公开了一种基于GSCGAN的图像灰度立体转换方法,包括如下步骤:步骤1:构建明场模式图像集、相衬模式图像集以及微分干涉模式图像集;步骤2:用相衬成像及微分干涉成像中的光线传播卷积公式代替传统GAN中的卷积传播运算来构建复值GAN,建立初步GSCGAN模型;步骤3:将训练图像输入初步GSCGAN模型中进行训练,得到GSCGAN模型;步骤4:将透明目标样本图像输入GSCGAN模型进行测试,得到结果图像。本发明采用基于GSCGAN的模型来对透明样本图像进行了灰度立体转换,得到了相衬干涉效果或微分干涉效果的图像。所构建的模式判别器D m 可以判断图像为相称效果图还是微分干涉效果图,使输入一幅图像可以输出两种不同的效果图像。并且提出了灰度损失函数,有效保存正确信息的同时避免了颜色混乱对结果造成伪彩色的影响。
本发明授权一种基于GSCGAN的图像灰度立体转换方法在权利要求书中公布了:1.一种基于GSCGAN的图像灰度立体转换方法,其特征在于,包括以下步骤: 步骤1、利用科研级显微镜采集P个透明样本,分别获取明场模式、相衬模式以及微分干涉模式下对应的图像,共3P幅,P≥200;上述每幅图像的像素为1000×1000,并将图像转化为灰度图像,分别对应构成明场模式图像集、相衬模式图像集以及微分干涉模式图像集; 步骤2、用相衬成像及微分干涉成像中的光线传播卷积公式代替传统GAN中的卷积传播运算来构建复值GAN,将两个复值GAN首尾相连形成一个循环结构,并在每一层输出图像后加入模式判别器Dm,获得初步GSCGAN模型; 步骤3、将明场模式图像集中的灰度图像作为原始训练图像,相衬模式图像集以及微分干涉模式图像集中的灰度图像作为理想训练目标图像,通过对原始训练图像的和理想训练目标图像进行傅里叶变换,将上述图像中每一个像素值变为复数,对应幅值和相位分别获得实数对与虚数对的图像特征图,并以复值形式分别输入初步GSCGAN模型中进行训练,得到GSCGAN模型; 步骤4、采集透明目标样本图像作为真实数据,图像像素大小在1000×1000,并将图像转化为灰度图像,输入GSCGAN模型中,即得到对应相衬干涉图或微分干涉图像,进而实现明暗分明的立体成像效果; 步骤1中,不改变科研级显微镜的角度和位置对同一个透明样本采集其在明场模式、相衬模式以及微分干涉模式下对应的图片; 步骤2中,相衬成像及微分干涉成像中的光线传播卷积公式是基于相衬及微分干涉成像理论求得,具体如下: 对于相衬成像,假设物体透射光复振幅分布为通过改变物体的相位频谱信息,变换后的复振幅分布为光强分布为其中δ表示零级相移,表示相位信息,i表示虚数单位,x',y'表示像面上信息点的坐标;由上式可知光强与相位是线性关系,相位差转换成了振幅信息,则转换后图像可以看到明暗差别; 对于微分干涉成像,样品成像的光强分布为 其中表示正交线偏振光间干涉相差,E0表示偏振分量的振幅,Ho,e表示样品表面形貌微分,o表示棱镜的位置,被测相位分布式中λ表示光波波长,Δo为正交线偏振光间横向剪切量,βo为棱镜相差,是关于棱镜位置的线性函数; 所述复值在网络中表示的方法如下:一个复数z=A+ib有一个实分量A和一个虚分量b,我们将一个复数的实部A和虚部b表示为逻辑上不同的实值实体,并在内部使用实值算法模拟复数算术,i表示虚数单位;若一个实值二维卷积层有N个特征映射,使N能被2整除;为了将它们表示为复数,则分配第一个N2特征映射来表示实分量,其余的N2特征映射来表示虚分量;因此,对于连接输入特征映射Nin到输出特征映射Nout的四维权值张量W,其核大小为n×n,即有一个大小为Nout×Nin×n×n2的复权值张量; 步骤2中,将两个复值GAN首尾相连形成一个循环结构,并在每一层输出图像后加入模式判别器Dm,获得初步GSCGAN模型,具体如下: 第一个GAN用于生成X域到Y域的图像,由第一生成器G和第一判别器Dx构成;第二个GAN用于生成Y域到X域的图像,由第二生成器F和第二判别器Dy构成,将两个GAN,首尾相连形成一个循环结构; 第一生成器G根据X域输入的原始训练图像与理想训练目标图像中Y域的信息,生成一份含有Y域信息的假图像,第一判别器Dx去分析该假图像是否为理想训练目标图像中的Y域图像,如果是则输出,如果不是则反馈信息给第一生成器G让其更新假图像,直至第一判别器Dx难以分辨假图像与理想训练目标图像为止,最后输出的即为理想训练目标图像;第二生成器F根据Y域输入的原始训练图像与理想训练目标图像中X域的信息,生成一份含有X域信息的假图像,第二判别器Dy去分析该假图像是否为理想训练目标图像中的X域图像,反馈信息给第二生成器F让其更新图像;所述模式判别器Dm对转换输出的图像或者理想训练目标图像进行分析,判别其为相称效果图还是微分干涉效果图,并反馈信息分别指导两个生成器; 所述第一生成器G,其在训练时的损失函数LGSCGANG,Dx,M如下: LGSCGANG,Dx,M=LGANG,Dx,X,Y+αLGANG,M+βLGrayscaleG,X,Y 其中,第一生成器G与第一判别器Dx间的对抗损失函数 表示X域真实数据的数学期望,表示Y域真实数据的数学期望;第一生成器G与模式判别器Dm间的对抗损失函数LGANG,M=∑Xpxlogqx,px表示X域生成相衬模式图像的概率,qx表示X域生成微分干涉模式图像的概率,让生成器进行不同模式图像的训练;LGrayscaleG,X,Y为灰度损失函数,α与β均表示网络各损失所占的权值,Dxx,y为第一判别器Dx返回给第一生成器G的指导信息,Gx,y表示生成器G据X域输入的原始训练图像与理想训练目标图像中Y域的信息输出的图像信息; 所述第二生成器F,其在训练时的损失函数LGSCGANF,Dy,M如下: LGSCGANF,Dy,M=LGANF,Dy,X,Y+αLGANF,M+βLGrayscaleF,X,Y 其中,第二生成器F与第二判别器Dy间的对抗损失函数 表示X域真实数据的数学期望,表示Y域真实数据的数学期望;第二生成器F与模式判别器Dm间的对抗损失函数LGANF,M=∑Ypylogqy,py表示Y域生成相衬模式图像的概率,qy表示Y域生成微分干涉模式图像的概率,让生成器进行不同模式图像的训练;LGrayscaleF,X,Y为灰度损失函数,α与β均表示网络各损失所占的权值,Dyy,x为第二判别器Dy返回给第二生成器F的指导信息,Fy,x表示生成器F据Y域输入的原始训练图像与理想训练目标图像中X域的信息输出的图像信息。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。