江苏未来网络集团有限公司陈晓波获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉江苏未来网络集团有限公司申请的专利一种基于任务语义感知的大模型自适应训练方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120688563B 。
龙图腾网通过国家知识产权局官网在2025-12-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511181495.7,技术领域涉及:G06N3/08;该发明授权一种基于任务语义感知的大模型自适应训练方法及系统是由陈晓波;李屹;钱传杰;梅琼;孙红国设计研发完成,并于2025-08-22向国家知识产权局提交的专利申请。
本一种基于任务语义感知的大模型自适应训练方法及系统在说明书摘要公布了:本发明属于大模型技术领域,公开了一种基于任务语义感知的大模型自适应训练方法及系统。包括基于目标任务获取若干文本数据,选取任一文本数据进行BERT编码得到高维语义向量;对高维语义向量进行第一层线性变换与激活处理得到低维语义向量;对低维语义向量进行第二层线性变换与归一化处理得到任务复杂度;确定任务复杂度所在复杂度区间,获取与复杂度区间对应的预设秩值区间后,基于任务复杂度获取RoLA模型中低秩矩阵的动态秩值;将进行动态秩值设置的RoLA模型引入预训练的大语言模型,基于文本数据对其迭代训练直至相应的评价指标满足预设的指标需求。本发明实现了训练过程中资源的优化配置,并可显著提升训练效率,降低内存占用。
本发明授权一种基于任务语义感知的大模型自适应训练方法及系统在权利要求书中公布了:1.一种基于任务语义感知的大模型自适应训练方法,其特征在于,包括: 判断同时包括多类目标任务时,构建与各目标任务一一对应的LoRA模型;并将各LoRA模型的适配器参数整合至一预训练的大语言模型内;其中,在训练过程中,对各LoRA模型进行并行独立训练; 基于目标任务获取若干文本数据,并选取任一文本数据对其进行BERT编码以得到高维语义向量; 其中,所述高维语义向量为:;其中,tk为选取的文本数据,k为文本数据的顺序编号; 对所述高维语义向量进行第一层线性变换与激活处理以将其投影至低维空间,进而得到低维语义向量;并对所述低维语义向量进行第二层线性变换与归一化处理以得到任务复杂度; 其中,所述第一层线性变换与激活处理还用于减少计算复杂度,过滤语义中无关的负信息;第二层线性变换与归一化处理还用于避免因数值波动导致梯度爆炸或消失,提高训练稳定性及收敛速度; 其中,所述低维语义向量为:;其中,ReLU为ReLU函数,W1为第一层线性变换的权重矩阵,b1为第一层线性变换的偏置向量;所述任务复杂度为:;其中,sigmoid为归一化函数,W2为第二层线性变换的权重矩阵,b2为第二层线性变换的偏置向量; 判断所述任务复杂度所在的复杂度区间,并确定与所述复杂度区间对应的预设秩值区间之后,基于所述任务复杂度获取LoRA模型中低秩矩阵的动态秩值;其中,相应的预设秩值区间与复杂度区间的对应关系可基于验证集确认的目标任务的输出结果进行调整; 其中,所述动态秩值为:;其中,rmin为预设秩值区间的下限值,rmax为预设秩值区间的上限值; 将进行动态秩值设置的LoRA模型引入预训练的大语言模型,并基于各文本数据对其进行迭代训练直至与所述目标任务相应的评价指标满足预设的指标需求以得到一目标大模型; 基于所述目标大模型对属于所述目标任务的各文本信息进行处理; 判断对于任一文本信息,目标大模型的输出结果与预期结果间的差值大于预设的差值阈值时,将所述任一文本信息引入对抗生成网络以生成若干生成文本信息;并将所述任一文本信息及相应的各生成文本信息存储至周期样本库内; 判断到达预设的更新周期时,调用所述周期样本库对所述目标大模型进行更新。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人江苏未来网络集团有限公司,其通讯地址为:211100 江苏省南京市江宁区秣周东路7号CENI大厦;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励