北京工业大学孙艳丰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京工业大学申请的专利一种基于去噪高效图压缩的图增量学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119600364B 。
龙图腾网通过国家知识产权局官网在2025-11-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411743520.1,技术领域涉及:G06V10/764;该发明授权一种基于去噪高效图压缩的图增量学习方法是由孙艳丰;张佳星;尹宝才设计研发完成,并于2024-11-30向国家知识产权局提交的专利申请。
本一种基于去噪高效图压缩的图增量学习方法在说明书摘要公布了:本发明公开了一种基于去噪高效图压缩的图增量学习方法,本方法为保留每个任务的原始图的整体语义,通过分布匹配方法压缩成一个小图作为记忆回放的内存。并在压缩图过程中添加了相关熵损失,有效避免原始图数据中的噪声影响。本方法还提出平衡训练目标,有效克服了新任务图和重放图之间的数据不平衡问题。与现有的图增量学习方法相比,基于去噪高效图压缩的图增量学习能提高分类准确率并且节约回放内存空间。
本发明授权一种基于去噪高效图压缩的图增量学习方法在权利要求书中公布了:1.一种基于去噪高效图压缩的图增量学习方法,其特征在于: 步骤1、在训练阶段,首先通过去噪高效图压缩技术将新任务的图压缩成小图,通过相关熵流行损失来缓解图数据集的噪声点和异常点的影响,通过互补损失使得压缩后的图分布接近于新任务图的分布,在此期间,通过两个损失的约束,获取能够保留原始图信息的小规模图;然后将压缩后的图放入到内存库中,通过内存库中的所有任务的压缩图一起训练得到最终模型; 步骤2、测试阶段,对于测试节点,通过模型得到最终的分类结果; 对于任务Tk传入的图为通过图压缩生成想要的合成图初始的合成图通过随机噪声、随机抽样或聚类算法获得;在分布匹配方案下,图压缩的目标函数表示为: 其中Dist·,·函数用来计算原图和压缩图之间的距离,两个图由相同的图编码器GNNθ编码,距离在嵌入空间中测量;最优压缩图与原图在分布上尽可能接近; 真实图数据的噪声和异常点会影响估计真实数据的分布,为此在压缩图生成的时候引入了相关熵损失,利用当前数据集来构造预定义的有监督近邻图Gs,其中第i行第j列元素定义为: 其中表示样本xj同类二阶邻居集合,Gs的构造不仅考虑局部关系,还利用了标签信息;通过给定训练样本集合和新构造的邻接矩阵,相关熵正则表示为: 相关熵损失采用相关熵度量,而非传统的欧式距离来衡量成对样本输出响应之间的距离;对于二阶邻居样本对xi,xj,相关熵度量的值域范围是0到1,而欧式距离的值域则是整个实数空间;在噪声环境下,若如果样本对中存在异常点,欧式距离度量值可能会非常大,最小化该正则项可能导致模型过度关注异常点;由于值域的不同,相关熵损失能够在一定程度上提高模型的泛化能力和鲁棒性,特别是在样本对中含有噪声或异常点时;为在嵌入空间中增强新任务图和合成图之间的相似性,引入互补损失作为正则化项,采用广为人知的最大平均差异损失来计算两个图之间的分布距离; 其中是图中节点类的集合,Ek,c和分别是输入图和压缩图的嵌入矩阵,ck是k类别节点的标签,是ck类的类比率;|·|是矩阵中行数,Mean·是节点嵌入的平均向量; 最后使用随机梯度下降方法完成下面的优化问题来学习压缩数据集: 其中λ是损失平衡参数,为每个合成节点分配了一个固定标签,并在训练中保持不变; 平衡训练用来解决模型训练时新旧数据不平衡的问题,当新任务的图大小远大于存在回放库中的图大小时,模型很难平衡从历史图和传入图中学习知识;将新任务图压缩后放入内存库中,通过使用内存库中所有任务的压缩图用来训练模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京工业大学,其通讯地址为:100020 北京市朝阳区平乐园100号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励