中南大学谢永芳获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中南大学申请的专利一种基于对抗训练去噪自编码器的泡沫浮选品位预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118823446B 。
龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410822516.8,技术领域涉及:G06V10/764;该发明授权一种基于对抗训练去噪自编码器的泡沫浮选品位预测方法是由谢永芳;夏雨;谢世文;唐朝晖;宁梓雄设计研发完成,并于2024-06-24向国家知识产权局提交的专利申请。
本一种基于对抗训练去噪自编码器的泡沫浮选品位预测方法在说明书摘要公布了:本发明提供了一种基于对抗训练去噪自编码器Adv‑DAE的泡沫浮选品位预测方法,使用PGD法攻击原始浮选图像,生成对抗样本后,输入去噪自编码器进行特征提取与数据重建。将训练后Adv‑DAE模型的编码器部分与多层感知机结合,建立浮选泡沫图像与品位数据之间的回归关系模型,进行泡沫浮选过程中的品位预测。本发明无须制作特定的噪声数据集,而是通过对抗训练提高模型的抗噪能力,这种方式能够有效提高模型在噪声数据下的鲁棒性,从而提高工业现场噪声数据下品位预测的准确性。
本发明授权一种基于对抗训练去噪自编码器的泡沫浮选品位预测方法在权利要求书中公布了:1.一种基于对抗训练去噪自编码器的泡沫浮选品位预测方法,其特征在于,包括以下步骤: 步骤一、拍摄浮选槽中的泡沫获得泡沫图像,同时记录泡沫浮选的工艺参数和对应的品位数据;所述泡沫浮选的工艺参数包括加药量和搅拌速度; 步骤二、对泡沫图像进行图像增强和归一化预处理并与对应的工艺参数和品位数据形成数据集,将数据集分为训练集和测试集; 步骤三、使用基于对抗训练的去噪自编码器与多层感知机,对泡沫浮选图像数据和矿石品位进行联合建模形成品位预测模型,通过训练集对品位预测模型进行训练得到训练后的品位预测模型;并用测试集测试训练后的品位预测模型,准确率大于预设阈值则得到最终的品位预测模型,否则继续进行训练; 得到训练后的品位预测模型包括如下步骤: S31,制作训练数据集的对抗样本: 所述去噪自编码器由编码器和解码器两个镜像对称的部分组成;编码器由三个卷积块依次串联连接形成;每个卷积块依次包括卷积层、激活函数、批量归一化层;三个卷积块输出的特征图大小依次为512*512,256*256,128*128; 基于训练数据集S中的图像数据,制作最终的对抗样本xadv: 开始对抗性搜索后,去噪自编码器计算潜在特征xlatent的初始值计算公式为: 式中,x=[x1,x2,...xi,...xp]为输入基于对抗训练的去噪自编码器中的泡沫浮选图像数据,工业摄像机拍摄后图像被裁剪为512*512的大小;p为泡沫浮选图像的张数,xi为第i个大小为512*512的二维矩阵,矩阵中的元素为图像中对应的像素值,每个像素值xi-{m,n}的取值为[0,1],m和n分别表示像素的横坐标和纵坐标;xlatent为输入图像经过去噪自编码器中编码器的编码之后,投影到低维空间的潜在特征,W为权重矩阵,b为偏置向量,σ是一个非线性激活函数; 根据使用的去噪自编码器中编码器的结构,得到的计算公式具体为: Conv1=ReLUBNConvx,W1+b1 Conv2=ReLUBNConvConv1,W2+b2 Conv3=ReLUBNConvConv2,W3+b3 式中,Conv表示卷积操作,BN表示批量归一化,ReLU为激活函数,x为输入图像,Conv1,Conv2,Conv3分别表示第一层卷积操作、第二层卷积操作和第三层卷积操作,Wl,bl为第l层卷积的权重和偏置项,l=1,2,3; 接着,向泡沫浮选图像数据添加高斯噪声,被高斯噪声污染之后的图像生成公式为: xguass=x+εg εg=cliprandnμ,σ,0,1 式中,xguass为被高斯噪声污染之后的图像,εg为高斯噪声;高斯噪声是一个服从高斯分布的随机数,均值为μ,标准差为σ,由于已将图像像素值归一化,使用clip确保随机生成的噪声范围在[0,1]之间;randn表示randn函数; 然后使用PGD法生成对抗样本:设定对抗攻击的超参数,包括目标真实标签y,对抗扰动步长a,对抗半径ε和迭代次数t,将添加高斯噪声后的原始图像xguass作为初始对抗样本,对初始对抗样本添加额外对抗扰动δ,以创建一个与原始图像xguass不同的对抗样本xadv;δ通过计算损失函数的梯度确定; 使用L∞范数将对抗扰动δ限制在预设的Lp范数内,即‖δ‖∞≤ε,ε为对抗半径,是一个控制对抗扰动总幅度的超参数;最后将对抗样本投影回L∞范数小于ε的范围内,更新对抗样本;重复上述步骤,直到达到预设的迭代次数t,停止迭代,得到最终的对抗样本; 对抗样本更新公式如下: 式中,Ladv为对抗性损失,用于指导生成对抗样本时的优化方向;yi为第i个样本的真实标签值,为被对抗攻击后去噪自编码器中编码器的第i个预测值,a为对抗扰动的步长;为第k步时的对抗样本;为对抗损失函数对输入样本的梯度;投影函数∏·保证将对抗样本限制在以||xadv-x||∞≤ε为中心的ε球内; 其中潜在特征xlatent更新公式为: 式中,表示第t步迭代时的潜在特征,η为学习率,表示损失函数关于的梯度,最终得到xlatent; 在去噪特征提取过程中,梯度反演不断调整对抗训练,达到所设置的迭代次数t后,认为最终生成的对抗样本满足与原始样本之间的最大差异: 式中‖‖2为l2范数; S32.将生成的对抗样本输入到去噪自编码器中,进行图像重建,优化基于对抗训练的去噪自编码器的参数,提取基于对抗样本的潜在特征: 得到最终的对抗样本后,将最终的对抗样本xadv输入去噪自编码器中; 去噪自编码器的编码器部分接收对抗样本xadv,将对抗样本xadv转换为基于对抗样本的潜在特征表示 具体为: 式中,Conv表示卷积操作,BN表示批量归一化,ReLU为激活函数,ReLUx=max0,x;xadv为输入对抗样本,为相应第l层的权重和偏置项;根据去噪自编码器的编码器部分计算得到潜在特征重建图像矢量 输入去噪自编码器的解码器部分的潜在特征的特征图大小为128*128,两层反卷积层用3*3大小的卷积核将特征图依次扩展到256*256,512*512: 在每个反卷积层后,应用sigmoid激活函数与批量归一BN化操作,引入非线性,稳定训练过程最终得到重建图像 重构过程即求解优化问题: 式中是xadv的重构,Lrec为重构损失函数; 综合考虑对抗性损失和重构误差,定义总损失函数为: LAdv-DAE=Lrec+γLadv 式中,Lrec为引入的重构损失函数,Ladv为引入的对抗损失函数,γ为平衡Lrec与Ladv之间关系的超参数,在每次迭代中,以对样本为输入,使用损失函数LAdv-DAE反向传播,计算损失函数的梯度更新去噪自编码器中的参数,直至LAdv-DAE收敛,即得到训练后的基于对抗训练的去噪自编码器模型; S33,利用多层感知机,预测矿物品位数据: 将步骤S32由去噪自编码器中的编码器编码对抗样本得到的潜在特征与对应的真实矿物品位数据yi输入一个多层感知机中,潜在特征表示作为输入,品位数据作为输出;所述多层感知机具有两个隐藏层,两隐藏层分别包含4个和3个神经元,每个隐藏层的神经元都与前一层的所有神经元相连接,整体形成一个全连接的前馈神经网;隐藏层第r层第j个神经元的输出计算公式为: 式中,为第r层第j个神经元的加权输入,nr-1表示前一层的神经元数量;为第r层第j个神经元与第r-1层第k个神经元之间的连接权重,表示前一层第k个神经元的输出,为第r层第j个神经元的偏置项,为第r层第j个神经元的输出,σ·为激活函数,激活函数使用Sigmoid函数: 输出层的计算公式为: 为输出层输出的品位数据的预测值,WT为输出层权重矩阵的转置,b为输出层的偏置,σ·为sigmoid激活函数; 使用反向传播算法,对该多层感知机品位预测模型进行训练,根据损失函数的梯度迭代优化多层感知机的权重、偏置项,使得预测输出与真实的品位数据之间的误差最小化;损失函数计算公式为: 式中yi为第i个样本的真实品位标签,为第i个样本经多层感知机得到的品位预测值,n为训练样本数量;输入的训练集迭代更新完成后,即得到训练好的多层感知机品位预测模型; 步骤四、实时向最终的品位预测模型输入当前的泡图像数据和泡沫浮选的工艺参数,进行品位预测,根据预测结果,调整泡沫浮选的工艺参数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中南大学,其通讯地址为:410083 湖南省长沙市岳麓区麓山南路932号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。