Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 积分商城 国际服务 IP管家助手 科技果 科技人才 商标交易 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京邮电大学戴华获国家专利权

南京邮电大学戴华获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京邮电大学申请的专利一种针对数据异构的高效客户端筛选隐私保护联邦学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119830347B

龙图腾网通过国家知识产权局官网在2026-02-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411945969.6,技术领域涉及:G06F21/62;该发明授权一种针对数据异构的高效客户端筛选隐私保护联邦学习方法是由戴华;陈俊杰;王周生;周浩;沈嘉和;李惠;杨庚设计研发完成,并于2024-12-26向国家知识产权局提交的专利申请。

一种针对数据异构的高效客户端筛选隐私保护联邦学习方法在说明书摘要公布了:本发明涉及联邦学习、隐私保护等技术,属于信息安全技术领域,公开了一种针对数据异构的高效客户端筛选隐私保护的联邦学习方法,该方法主要包含两个部分,分别是数据采样阶段和本地训练阶段,在数据采样阶段,所有客户端生成梯度相似度矩阵,对梯度相似性高的客户端进行分组;每组内,计算每个客户端对模型训练的贡献值,选择贡献值较高的客户端作为训练集,在本地训练阶段,根据客户端的隐私需求生成个性化的隐私预算,根据隐私预算向本地模型注入噪声以实现对模型参数的差分隐私保护。该方法能够筛选出数据质量高的客户端,加快模型收敛速度,且能够满足客户端的个性化隐私需求,对数据提供较强的隐私保护。

本发明授权一种针对数据异构的高效客户端筛选隐私保护联邦学习方法在权利要求书中公布了:1.一种针对数据异构的高效客户端筛选隐私保护联邦学习方法,其特征在于:应用该联邦学习方法的联邦学习框架主要包括客户端Ckk=1,2,…,N和一个服务器S,每个客户端拥有自己的数据集Dkk=1,2,…,N且每个客户端的本地数据是异构的,具体的,所述联邦学习方法具体包括如下步骤: 步骤1、初始化阶段:服务器S生成联邦学习任务,初始化第0轮的全局模型参数ω0,将第0轮的全局模型参数ω0发送给下一轮参与训练的候选客户端集合TS,为客户端分配隐私预算; 步骤2、客户端筛选阶段:挑选出最佳客户端,加入训练的候选客户端集合TS,具体包括如下步骤: 步骤2‑1、计算并存储所有客户端的梯度,所有客户端进行聚类分组,得到分组集合{G1,G2,…,Gn}; 步骤2‑2、每组内根据贡献值AVG‑Shapley值挑选出最佳客户端加入训练的候选客户端集合TS; 步骤2‑3、采用隐私预算分配策略来提供隐私保护; 步骤3、本地训练阶段:客户端i基于本地数据集Di及全局模型参数ω进行训练,生成局部模型参数向局部模型参数注入噪声,将局部模型参数发送给服务器S; 步骤4、模型聚合和参数下发阶段:服务器S对接收到的局部模型参数进行均值聚合: 具体为: 将聚合后的模型参数ωt作为新一轮的全局模型参数ω下发给客户端进行下一轮的训练; 步骤5、重复执行步骤2‑步骤4,直到达到最大训练轮数或全局模型参数ωt收敛,最大训练轮数T=50,t<T,其中,在步骤3中,所述本地训练阶段具体包括如下步骤: 步骤3‑1、为候选客户端集合TS中的每个客户端Ci∈TS在收到来自服务器S的全局模型参数ω后,基于其本地数据集Di及全局模型参数ω进行模型训练,在第t轮训练中,客户端Ci∈TS基于本地数据集Di及t‑1轮更新后的全局模型参数ωt‑1计算本地损失值及其梯度,通过SGD随机梯度下降算法更新全局模型参数ωt‑1,具体步骤如下: 在第t轮训练中,客户端Ci∈TS基于本地数据集Di及t‑1轮更新后的全局模型参数ωt‑1计算本地损失值fitωt‑1,Di,对t‑1轮更新后的全局模型参数ωt‑1求导得到梯度,公式为: 基于计算出的梯度利用随机梯度下降算法SGD更新t‑1轮更新后的全局模型参数ωt‑1,具体公式为: 其中η为学习率; 步骤3‑2、为本地训练完成后基于分配的隐私预算进行噪声的注入,将注入噪声后的模型发送给服务器S,客户端Ci∈TS在本地训练完成后得到第t轮的局部模型参数生成服从正态分布的高斯噪声Nμ,σ2,向局部模型参数注入高斯噪声Nμ,σ2,将加噪后的局部模型参数发送给服务器S,具体为:在第t轮训练中,客户端Ci∈TS根据设定的隐私预算∈以及失败概率δ,生成服从正态分布的高斯噪声Nμ,σ2,其中μ=0,Δf为灵敏度,定义为单个数据改变函数f的最大幅度,接着向局部模型参数注入高斯噪声N0,σ2: 将加噪后的局部模型参数发送给服务器S; 步骤3‑3、服务器S收到注入噪声后的模型后,计算每个客户端相较上一轮对模型训练的贡献水平,贡献水平的计算使用AVG‑Shapley,所述步骤3‑3中,Shapley Value定义了客户端i的贡献值φi,其计算公式为: 其中,N表示N个参与者,v表示收益函数,对于N的任意一个子集S,函数vS表示该子集参与者合作带来的总收益,公式中求和符号的后两项,表示组合权重,表示子集S在所有可能排列中的出现概率,[vS∪{i}‑vS]表示参与者i对子集S的边际贡献,使用损失函数来表示收益函数,则Shapley Value计算公式表示为: 其中,ΔfW=fWS∪{i}‑fWS; 使用近似算法来降低时间复杂度,以上公式可表示为: 其中fWS表示没有客户端i参与训练后的损失函数,fWS∪{i}表示客户端i参与训练后的损失函数,为其分配权重表示客户端i的边际贡献值; 步骤3中,AVG‑Shapley是指使用上一轮所有客户端训练后损失函数的均值代替上一轮的全局损失函数,使用AVG‑Shapley方式计算后的贡献值φi‑AVG为: 其中,|TS|表示候选客户端集合TS的客户端数量,fWS∪{i}表示客户端i参与训练后的损失函数,fWS∈TS表示上一轮的候选客户端集合TS中每个客户端训练后的损失函数,每一轮当客户端i训练完成后,得到客户端i参与训练后的损失函数,而服务器S会存储上一轮训练候选客户端集合中的所有客户端参与训练后的损失函数均值,使用所有客户端参与训练后的损失函数均值作为上一轮训练后的全局损失函数,客户端i利用自身训练后得到的损失函数与全局损失函数计算其对于全局模型的边际贡献值,此后,下一轮的客户端筛选阶段服务器S能够根据每个客户端的边际贡献值对客户端进行排序,从而筛选出下一轮参与训练的客户端。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210046 江苏省南京市栖霞区文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。