北京邮电大学李小勇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京邮电大学申请的专利一种面向联邦学习的成员推理攻击方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117313100B 。
龙图腾网通过国家知识产权局官网在2025-09-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311153868.0,技术领域涉及:G06F21/57;该发明授权一种面向联邦学习的成员推理攻击方法是由李小勇;张丽伟;李灵慧;高雅丽;蔡斌思;窦若彬;刘飞;刘琴锋设计研发完成,并于2023-09-08向国家知识产权局提交的专利申请。
本一种面向联邦学习的成员推理攻击方法在说明书摘要公布了:本发明公开了一种面向联邦学习的成员推理攻击方法,通过训练过程中的模型的多个训练轮次信息,观察模型参数变化规律,充分加强对训练过程中纵向信息的利用,并通过最后一层的偏差参数完成攻击。同时针对联邦学习系统中的两种模型设计局部攻击和全局攻击,以评估联邦学习的隐私泄露风险。对于局部攻击,基于神经网络充分学习成员数据与非成员数据差异,实现成员和非成员数据的区分。对于全局攻击,基于细粒度差异比较实现成员数据的来源推断。此外,本发明在不干扰模型训练的情况下进行攻击,不存在被系统检测的风险,通过特征放大操作增强了成员数据与非成员数据之间的偏差变化差异,在较少的参数下实现了更强攻击效果,方法具有高效性。
本发明授权一种面向联邦学习的成员推理攻击方法在权利要求书中公布了:1.一种面向联邦学习的成员推理攻击方法,其特征在于,包括以下步骤: S1、定义以下攻击函数: Dtarget:z=x,y 其中,Dtarget是类似于目标模型训练数据集的不确定数据集,z是攻击者拥有的目标数据,x是输入向量,y是目标分类任务的数据标签;F是攻击函数,若Fz=0,说明该目标数据没有用于模型训练,若Fz=1则说明该目标数据是目标模型训练集的一部分; y=Wi*xi+bi 其中,Wi代表目标模型第i层神经网络的权重,bi代表模型偏差,表征了模型输出和数据的真实标签之间的平均距离; S2、针对由某个参与者发起的局部攻击场景,通过学习目标模型的多个训练轮数之间的偏差变化,推断出目标数据是否存在于整个目标训练集中;对于参与者i,推理攻击表示如下: z∈{Dnon}or{Dtrain}→Fz∈{0,1} 其中,Dtrain是联邦学习中的所有训练集,Dnon包括测试集和其他不在训练集中的数据;攻击者通过攻击函数F判断目标数据点z是否在训练集中; 步骤S2针对局部攻击场景推理攻击的过程包括: S21、攻击特征构建:获得目标模型神经网络最后一层的模型偏差,使用多个训练轮次来计算偏差变化,将所有相邻训练轮次中的偏差变化值作差得到变量值,将所有变量值进行水平连接得到攻击向量; S22、攻击特征放大:以自然常数e为基数的指数函数来放大样本的特征; S23、攻击模型训练:本地攻击者利用其拥有的局部数据训练攻击模型,攻击模型由多个conv-relu-pool模块和linear-relu模块组成,最后通过softmax层输出分类概率; S3、针对由中央聚合器发起的全局攻击场景,通过差异比较推断出目标数据来源;全局攻击者发起的成员来源推理攻击定义如下: z∈{D1}or{D2}or…or{Dn}→Fz∈{1,2,…,n} 假设目标模型中有n个参与者,D1,D2,...,Dn代表每个参与者的本地数据集,全局攻击者根据攻击函数F推断目标数据来源; 步骤S3针对全局攻击场景推理攻击的过程包括: S31、攻击特征构建:获得目标模型神经网络最后一层的模型偏差,使用多个训练轮次来计算每条目标数据在每个参与者的局部模型上的偏差变化,将所有偏差变化进行垂直连接得到攻击向量,使同一个训练轮次的偏差变化位于攻击向量的同一行中; S32、攻击特征放大:以自然常数e为基数的指数函数来放大样本的特征; S33、细粒度差异比较:将每个节点对应的目标模型偏差差值作为单独的输入进行比较,并将目标模型偏差差值合并,通过比较不同局部模型的模型偏差差异以确定成员资格。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。