Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 贵州大学杨静获国家专利权

贵州大学杨静获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉贵州大学申请的专利基于贝叶斯参数更新及权重记忆的正则化持续学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116206337B

龙图腾网通过国家知识产权局官网在2025-10-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310156840.6,技术领域涉及:G06V40/10;该发明授权基于贝叶斯参数更新及权重记忆的正则化持续学习方法是由杨静;何瑶;刘庭卿;李少波;袁坤;李斌;季卿设计研发完成,并于2023-02-23向国家知识产权局提交的专利申请。

基于贝叶斯参数更新及权重记忆的正则化持续学习方法在说明书摘要公布了:本发明提出了一种基于贝叶斯参数更新及权重记忆的正则化持续学习方法,包括以下步骤:S1,在学习每个新任务时,采用脑启发重放模型生成重放数据;S2,将新任务和重放数据输入脑启发重放模型,并通过正则化约束进行训练,判断模型参数的重要性;S3,根据模型参数的重要性对模型进行损失函数分析。本发明能够克服现有正则化技术的缺点与不足,能更好的学习新任务,在更高效的学习新任务知识的同时应减少旧任务知识产生灾难性遗忘。

本发明授权基于贝叶斯参数更新及权重记忆的正则化持续学习方法在权利要求书中公布了:1.一种基于贝叶斯参数更新及权重记忆的正则化持续学习方法,该方法用在计算机视觉领域,该计算机视觉为图像分类,其特征在于,包括以下步骤: S1,在学习每个图像新任务时,采用脑启发重放模型生成重放数据; S2,将图像新任务和重放数据输入脑启发重放模型,并通过正则化约束进行训练,判断模型参数的重要性;所述正则化约束包括: S2-1,每当有需要学习的新任务时,通过贝叶斯概率自适应更新权重参数,将其转换为Fisher信息矩阵作为参数重要性度量;在所述S2-1中包括: S001,根据贝叶斯公式,求概率最大的最优参数: 其中logpθ|D1:k表示数据D1:k中最优参数θ已知情况下任务1到任务k数据D1:k的后验; 表示数据D1:k中最优参数已知情况下,任务1到任务k数据D1:k的后验; 为求偏导符号; θ为待优化的参数,是在无法访问过去数据D1:k时需要求解的最优参数; 是给定旧任务数据的最优参数,是在已知过去数据D1:k的情况下,已经获得的最优参数; S002,确定最优参数后,进行参数的更新: 当前任务k+1的最优参数更新为: 其中表示使用数据D1:k+1中使D1:k+1概率最小的参数θ; Lk+1θ表示数据Dk+1的对数似然; λ为超参数; Fik表示所有旧任务中参数θi的Fisher信息矩阵; S003,以Fisher的形式存储重要参数,作为参数重要性度量: 首先计算当前任务的Fisher信息矩阵,将其看作是重要性分数并保存;在计算下一个任务参数的Fisher时,使用平均值有效更新,得到最终的Fisher信息矩阵: 其中:是参数θ在训练迭代为tn时参数的Fisher信息矩阵; 是参数θ在训练迭代为tn-1时参数的Fisher信息矩阵; tn表示第n次的训练迭代; γ,η是超参数,γ,η∈0,1且γ+η=1; S2-2,对每一个任务,计算网络模型中每个参数θi变化对模型输出的影响程度,表示为对当前任务的重要性Mi,将影响较大的参数保留并沿用到训练后续的任务中去,在S2-2中包括:给定数据点xk,函数输出变化近似为: 其中fxk;θ为脑启发重放模型的输出; θt+Δt表示t+Δt时刻的权重参数; θt表示t时刻的权重参数; Δt为时间变化量; 是学习函数对权重参数θi的偏导数; δit是参数θi的变化量Δθi; 从任务1开始,对于任务的每一个观测数据点xk,计算每一个数据点引起学习函数的变化, mi表示参数变化引起模型输出变化的灵敏度; N表示给定方法的数据点的总和; gixk表示学习函数对权重参数θi的梯度; ||·||为求梯度的模;下降方向选择参数变化最快的方向,令参数θ的变化δi=Δθi→0,用二阶泰勒级数近似KL散度: 其中DKL表示KL散度; pθ||pθ+Δθ表示对pθ、pθ+Δθ进行拟合,用pθ+Δθ去拟合pθ; pθ表示参数θ发生的概率,表示参数变化后该参数发生的概率; pθ+Δθ表示参数θ变化后θ+Δθ发生的概率; 表示求梯度; T为转置符号; Δθ表示参数θ的变化量; ΔθT为Δθ的转置; Ez[logpθ]表示求对数分布logpθ的期望; 表示对数分布梯度的期望; Δθi表示第i个参数的变光滑量; 通过公式10的KL散度测量,该方向在模型的每单位变化中给出最大的目标变化,在这种情况下,参数重要性定义为学习函数的变化与参数空间中每一步条件似然分布之间距离的比率,此时的参数θi重要性计算为: 其中tn是总的训练迭代次数; mi表示参数变化引起模型输出变化的灵敏度,由公式9计算出; 是参数θi在t处迭代时的Fisher; Δθit=θit+Δt-θit,θit+Δt和θit表示不同迭代时的参数,θit+Δt-θit表示参数在不同训练迭代下的变化量; ε表示超参数,ε>0用于防止分母的第一部分出现零的情况; S3,根据模型参数的重要性对模型进行损失函数分析。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人贵州大学,其通讯地址为:550000 贵州省贵阳市花溪区贵州大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。