Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京火山引擎科技有限公司;复旦大学韩伟力获国家专利权

北京火山引擎科技有限公司;复旦大学韩伟力获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京火山引擎科技有限公司;复旦大学申请的专利预训练模型微调方法、图像分类方法、介质、设备及产品获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119785082B

龙图腾网通过国家知识产权局官网在2025-10-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411834404.0,技术领域涉及:G06V10/764;该发明授权预训练模型微调方法、图像分类方法、介质、设备及产品是由韩伟力;严峥翔;宋鲁杉;张祺智;洪爵;吴烨设计研发完成,并于2024-12-12向国家知识产权局提交的专利申请。

预训练模型微调方法、图像分类方法、介质、设备及产品在说明书摘要公布了:一种预训练模型微调方法、图像分类方法、介质、设备及产品。方法包括:对第一模型进行训练;确定训练后所得的第一模型在各样本上的样本损失;与每一其他参与方执行第一数据集的混洗和复制秘密共享,以使得各参与方分别获得混洗后所得的第一数据集的两个第一分片;接收模型持有方分发的预训练模型的模型参数的两个第二分片,基于本地的两个第一分片,与每一其他参与方对预训练模型进行多轮迭代微调,每轮迭代微调中,数据持有方基于第二数据集的两个第一分片与每一其他参与方确定RHO最大的K个样本,利用K个样本反向传播更新模型参数。选择有价值且尚未被学习到的样本进行模型微调,提升模型安全微调的效率。该方法可应用于联邦学习。

本发明授权预训练模型微调方法、图像分类方法、介质、设备及产品在权利要求书中公布了:1.一种预训练模型的微调方法,其特征在于,预训练模型微调的参与方包括数据持有方、模型持有方以及辅助计算方,所述数据持有方持有微调样本集,所述模型持有方持有所述预训练模型,所述方法应用于所述数据持有方,所述方法包括: 利用所述微调样本集中的至少部分样本对第一模型进行训练; 针对第一样本集中的每一样本,确定训练后所得的第一模型在该样本上的第一样本损失,其中,所述第一样本集为所述微调样本集的子集; 与所述模型持有方和所述辅助计算方执行第一数据集的混洗和复制秘密共享操作,以使得每一所述参与方分别获得混洗后所得的第一数据集的两个第一分片,其中,所述第一数据集包括所述第一样本集和所述第一样本集中每一样本各自的第一样本损失; 响应于接收到所述模型持有方以复制秘密共享方式分发的所述预训练模型的模型参数的两个第二分片,基于本地的所述两个第一分片,与所述模型持有方和所述辅助计算方对所述预训练模型进行多轮迭代微调,以使得每一所述参与方分别对本地的所述两个第二分片进行多轮迭代微调,直到达到微调截止条件时为止,其中,在每轮迭代微调中,所述数据持有方基于本地的第二数据集的两个第一分片,与所述模型持有方和所述辅助计算方从第二样本集中确定可减少的保留损失RHO最大的K个样本,并利用所述K个样本进行反向传播更新模型参数,所述第二样本集为所述第一样本集中用于本轮迭代微调的样本,所述第二数据集包括所述第二样本集和所述第二样本集中每一样本各自的第一样本损失。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京火山引擎科技有限公司;复旦大学,其通讯地址为:100190 北京市海淀区紫金数码园4号楼13层1309;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。