华东理工大学王喆获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华东理工大学申请的专利一种轻量级的基于原型容器的小样本类增量学习系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116229151B 。
龙图腾网通过国家知识产权局官网在2025-12-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310022747.6,技术领域涉及:G06V10/764;该发明授权一种轻量级的基于原型容器的小样本类增量学习系统是由王喆;李冬冬;许鑫磊;杨海;杜文莉设计研发完成,并于2023-01-08向国家知识产权局提交的专利申请。
本一种轻量级的基于原型容器的小样本类增量学习系统在说明书摘要公布了:本发明公开了一种轻量级的基于原型容器的小样本类增量学习系统,包括多阶段预训练方法,计算原型的算法以及原型容器中原型的存储和增量更新方法。该方法以多阶段预训练的策略不断提升模型提取特征的样本表示能力,并计算各类别原型作为分类标准。采用原型容器存储当前所有类的原型,在后续增量过程中只需更新新类别原型,无需进一步训练。本发明弥补了现有小样本类增量训练任务中由于类别数量不断增加导致分类头网络参数无限的增大以及复杂场景下增量过程不轻便的问题,仅通过多阶段预训练模型计算类别原型,并用原型容器替代了传统分类器,从算法层面优化了增量训练过程,使得小样本类增量学习系统便捷高效。
本发明授权一种轻量级的基于原型容器的小样本类增量学习系统在权利要求书中公布了:1.一种轻量级的基于原型容器的小样本类增量学习系统,其特征在于:包括以下步骤: 1后台根据具体的联邦问题描述,将图像样本数据分为训练数据和测试数据; 2利用基础会话样本数据进行多阶段预训练得到预训练模型,具体过程如下:首先,初始化模型网络权重W使用基础会话数据D0从头训练第一阶段的模型;其次,为了进一步提高模型的特征表达能力,采用对比学习策略,对比学习侧重于学习相似例子之间的共同特征,具体步骤包括:首先,针对每一个真实数据xi进行两次随机的数据增强获得和数据增强方式包括随机反转、随机旋转、随机裁剪,和被视为真实数据xi的增强数据,在该阶段保证同一数据增强之后与原数据保证输出特征的最大相似性;其次,将xi、和作为输入同时输入至神经网络中,最小化对比损失: 其中cos代表余弦相似度,f代表模型输出的特征;最后,保证在一个批次中相同类别的真实样本保证相似度最大: LsameR,Y=sumI‑R*·YYT, 2其中R是一个批次的数据,Y是该批数据中标签矩阵的one‑hot形式;R*表示R的余弦相似度矩阵,表示第i个样本与第j个样本的余弦相似度;I是一个与R*大小相同的矩阵,所有的值都是1;·表示矩阵元素对应相乘运算; 然后,为了提高原型的匹配能力,利用聚类学习保证相似样本的特征非常接近,以提高计算原型的质量,具体步骤包括:首先,计算每一轮训练的各类别原型: 其中Pc代表c类别的原型,Sc代表c类别的样本集合,并且|Sc|代表样本数量;通过fxi和Pc找到与这个类最相似的样本xc;其次,将一个批次R中的每一个xi和相应的xc作为输入同时输入至神经网络中,最小化聚类损失,最后,由于需要在小样本场景中解决类增量学习,该模型需要具有从少量样本中提取特征的能力,具体步骤包括:首先,每个元任务都属于N‑way K‑shot设置,包括N*K个支持样本和N*K个查询样本,由公式3利用支持集构造原型Pc;其次,计算一批元任务之间的平均损失: 其中|T|表示批处理中元任务的数量,表示批处理中第n个任务的查询集,Pn表示一批次中第n个任务中的类原型;Pyi|xi,Pn表示查询样本xi属于元训练网络中的yi类的概率,具体展开为: 其中表示第n个任务的第c类原型;τ是原型网络中的松弛超参数; 3计算目标原型并存储在原型容器中; 4新的增量会话流入,计算新类别原型和容器更新; 5测试样本计算相关特征得到最终预测结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华东理工大学,其通讯地址为:上海市徐汇区梅陇路130号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励