北京邮电大学南国顺获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京邮电大学申请的专利基于微调大语言模型的任务处理方法、装置、设备及介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120851126B 。
龙图腾网通过国家知识产权局官网在2026-03-20发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510862690.X,技术领域涉及:G06N3/096;该发明授权基于微调大语言模型的任务处理方法、装置、设备及介质是由南国顺;崔骄杨;彭毅林;曹新耶;崔琪楣;陶小峰设计研发完成,并于2025-06-25向国家知识产权局提交的专利申请。
本基于微调大语言模型的任务处理方法、装置、设备及介质在说明书摘要公布了:本申请公开了一种基于微调大语言模型的任务处理方法、装置、设备及介质。方法包括:基于构建的训练数据集,采用多任务并行调度策略训练上下文感知微调算法;其中,所述上下文感知微调算法基于任务之间的依赖关系进行LoRA参数微调;基于所述上下文感知微调算法,得到微调的大语言模型;将目标任务的多模态数据输入所述大语言模型处理,输出任务处理结果。本申请提出一种基于任务依赖关系的LoRA微调方法,称为上下文感知微调算法,引导模型学习任务之间的隐含因果逻辑关系,提升了模型对复杂推理任务的适应能力与泛化能力,支持分布式协同处理方式,显著提升了模型部署效率与响应速度,适应低延时、低功耗的边缘部署需求。
本发明授权基于微调大语言模型的任务处理方法、装置、设备及介质在权利要求书中公布了:1.一种基于微调大语言模型的任务处理方法,其特征在于,包括: 基于构建的训练数据集,采用多任务并行调度策略训练上下文感知微调算法;其中,所述上下文感知微调算法基于任务之间的依赖关系进行LoRA参数微调;包括:确定目标任务以及目标任务的前置任务;将所述目标任务和前置任务作为节点,任务之间的依赖关系作为有向边,构建任务依赖图;基于所述任务依赖图,将LoRA的参数矩阵分割为多个子矩阵,每个子矩阵对应一个任务;在训练过程中,对于首个执行的任务,仅训练首个任务对应的子矩阵,同时掩蔽后续任务对应的子矩阵;对于后续任务,训练当前任务对应的子矩阵,同时冻结其前置任务对应的子矩阵,掩蔽后续任务对应的子矩阵;其中,冻结操作为参数在训练过程中保持不变,但可以作为特征参与当前训练任务的前向传播,掩蔽操作为忽略该参数的子矩阵; 基于所述上下文感知微调算法,得到微调的大语言模型; 将目标任务的多模态数据输入所述大语言模型处理,多模态数据包括图像、文本、语音,输出任务处理结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励