山东科技大学张金泉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉山东科技大学申请的专利一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119598517B 。
龙图腾网通过国家知识产权局官网在2025-09-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411678571.0,技术领域涉及:G06F21/62;该发明授权一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法是由张金泉;杨仁栋;汤云灿;周阅微;倪丽娜设计研发完成,并于2024-11-22向国家知识产权局提交的专利申请。
本一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法在说明书摘要公布了:本发明公开了一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法,属于信息处理领域,在数据预处理阶段,提出了一种基于信息熵的动态自适应采样策略,根据人脸数据集的分布特点和敏感信息的权重调整采样率,在保证用户隐私的前提下最大化模型性能。为了取得更好的隐私保护效果,设计了一种熵调差分隐私机制,在对人脸数据集动态自适应采样之后,根据人脸数据的信息熵值自适应地添加不同程度的高斯噪声,从而实现差分隐私约束下人脸敏感数据的精细化隐私保护。在模型训练阶段,提出了一种弹性抗扰训练方法,在模型训练的不同阶段动态生成多样化的对抗样本,在增强模型对多种类型的对抗攻击的鲁棒性的同时降低模型的过拟合风险。
本发明授权一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法在权利要求书中公布了:1.一种基于弹性抗扰隐私保护机制的人脸敏感数据保护方法,其特征在于,包括如下步骤: 步骤1、获取原始的人脸图像数据集并进行预处理,将预处理后的数据集按比例划分为训练集和测试集,计算每个图像的信息熵,根据信息熵对数据集进行动态自适应采样,获得一次更新的训练集; 步骤2、为人脸图像数据分配隐私预算,使用熵调差分隐私保护机制对一次更新的训练集中每个图像添加高斯噪声,获得二次更新的训练集; 步骤3、构建动态卷积层,将原有模型网络ResNet18中的标准卷积层替换为构建的动态卷积层形成动态熵感知隐私对抗模型; 步骤4、采用二次更新的训练集进行模型预训练; 步骤5、采用弹性抗扰训练方法,在动态熵感知隐私对抗模型训练的不同阶段动态生成多样化的对抗样本,将二次更新的训练集中每一轮次的普通样本集与生成的对抗样本集按比例混合后,进行模型训练;具体过程为: 步骤5.1、初始化扰动幅度、步长以及首轮对抗样本,用D″train中加噪后的人脸图像初始化首轮对抗样本,公式如下: 其中,为首轮对抗样本;X″为加噪后的人脸图像; 步骤5.2、定义对抗样本的损失函数同样也使用交叉熵损失函数,具体公式如下: 其中,Ladv是对抗样本的交叉熵损失函数值;M″为每一轮次对抗样本的个数;表示模型对第i个图像对应的对抗样本的预测概率;yi表示第i个图像的真实标签; 步骤5.3、根据模型的反馈对步长和扰动幅度进行自适应调整,确保步长和扰动幅度是动态调整后的最优值;动态调整公式如下: 其中,ci为第i个图像对应的对抗样本的扰动幅度,用于控制对抗样本生成过程中施加在样本上的扰动量;cbase是初始扰动幅度;λ′是扰动幅度调整系数,用于控制扰动幅度的调整强度;是当前批次对抗样本的平均损失值,公式如下: 其中,Nadv是当前批次对抗样本的个数; 根据HtotalXi来自适应调整对抗样本的生成迭代步长,公式如下: ηi=ηbase·1+λ″·HtotalXi25; 其中,ηi为第i个图像对应的对抗样本的步长;ηbase是初始步长;λ″是步长调整系数,用于控制信息熵对步长调整的影响程度; 步骤5.4、根据模型当前的表现,动态选择生成对抗样本的攻击策略;具体过程为: 步骤5.4.1、计算损失变化率,公式如下: 其中,是第t轮对抗样本的交叉熵损失变化率;分别是第t轮、第t-1轮对抗样本的交叉熵损失函数值;u是一个常数; 步骤5.4.2、根据模型的交叉熵损失变化率,动态切换生成对抗样本的攻击策略;预先设置第一阈值τfgsm和第二阈值τpgd,用于判断选择何种攻击策略;共包含三种攻击策略,分别采用了快速梯度符号法、投影梯度下降法、深度欺骗法;具体判断规则如下: 在训练初期,如果使用快速梯度符号法来生成对抗样本,公式如下: 其中,是第t轮的第i个图像对应的对抗样本;是第t轮加噪后的第i个图像;是第t轮第i个图像对应的对抗样本的步长;是的损失梯度;sign是取梯度的符号;表示模型对第t轮的第i个图像对应的对抗样本的预测概率;表示第t轮第i个图像的真实标签; 在训练中期,如果使用投影梯度下降法生成对抗样本,逐步优化扰动,公式如下: 其中,是第t+1轮的第i个图像对应的对抗样本;是投影操作,它将更新后的对抗样本投影回范围内确保对抗样本在限制区域内;是第t轮加噪后的第i个图像;是以为中心,半径为扰动幅度c的球形区域;是的损失梯度; 在训练后期,如果使用深度欺骗法生成对抗样本,公式如下: 其中,fdf·是当前样本的分类输出分数;是对样本分类输出分数的梯度;是梯度的L2范数的平方; 步骤5.5、将D″train中每一轮次的普通样本集Dnormal与对抗样本集Dadv按比例混合后进行训练,公式如下: Dtrain=ζ·Dnormal+1-ζ·Dadv30; 其中,Dtrain是混合后的训练集;ζ是混合比例; 模型的总损失函数Ltotal如下: 其中,是混合比例; 训练完成后,使用测试集对动态熵感知隐私对抗模型进行评估以衡量模型的性能; 步骤6、继续新一轮的动态熵感知隐私对抗模型训练,在每一轮训练中依据信息熵进行动态自适应采样、人脸图像数据加噪处理,再次生成对抗样本与普通样本组成混合训练集进行模型训练;具体过程为: 步骤6.1、根据每轮动态熵感知隐私对抗模型训练结果的反馈,先依据信息熵对数据进行动态自适应采样;接着,根据采样数据的信息熵大小为采样数据添加自适应的高斯噪声; 步骤6.2、基于当前动态熵感知隐私对抗模型的表现,根据加噪后的数据生成对抗样本;接着,将这些对抗样本与加噪处理后的普通样本按比例组合,形成混合后的训练集; 步骤6.3、使用混合后的训练集进行动态熵感知隐私对抗模型训练; 步骤6.4、每轮迭代后,依据动态熵感知隐私对抗模型的训练结果对采样、加噪与对抗训练的过程进行微调,逐渐改善模型的性能,直至在差分隐私保护的条件下达到预设的性别识别准确率或满足最大训练轮次。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人山东科技大学,其通讯地址为:266590 山东省青岛市黄岛区前湾港路579号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。