广州佳新智能科技有限公司陈声棉获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉广州佳新智能科技有限公司申请的专利基于人工智能的数据智能模型训练与硬件加速方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN118657186B 。
龙图腾网通过国家知识产权局官网在2025-08-12发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411109987.0,技术领域涉及:G06N3/082;该发明授权基于人工智能的数据智能模型训练与硬件加速方法及系统是由陈声棉;何新安;郑卫群;肖广;郭文智设计研发完成,并于2024-08-14向国家知识产权局提交的专利申请。
本基于人工智能的数据智能模型训练与硬件加速方法及系统在说明书摘要公布了:本发明涉及人工智能领域,具体公开了一种基于人工智能的数据智能模型训练与硬件加速方法,包括:设置原始深度卷积神经网络模型DNN的网络结构;经过首次训练得到卷积神经网络模型;进而进行阶段和类别划分,从而得到块;计算每一个块中各个类别卷积层的滤波器滤波通道大小及剪枝权重;使用剪枝后的智能模型执行推理任务;根据任务类型选择对应的激活函数;并进行量化和知识蒸馏;设计通用硬件加速器,将优化后的深度卷积神经网络模型DNN部署在FPGA中。本发明通过深度卷积神经网络模型DNN的网络结构的构建,设计多种激活函数通用硬件架构,使其在更轻量化的同时,在提高卷积神经网络的表达能力的同时,能够准确提高智能化水平。
本发明授权基于人工智能的数据智能模型训练与硬件加速方法及系统在权利要求书中公布了:1.一种基于人工智能的数据智能模型训练与硬件加速方法,其特征在于,所述方法包括: 步骤S1,设置原始深度卷积神经网络模型DNN的网络结构,权重通过随机取值,初始化原始深度卷积神经网络模型DNN; 步骤S2,采集历史任务数据的控制指令及网络参数,输入任务队列,经过首次训练得到网络权值,用于得到首次训练后的卷积神经网络模型; 步骤S3,根据各个卷积层的属性共性对首次训练后的卷积神经网络模型DNN的卷积层进行阶段和类别划分,从而得到块; 步骤S4,计算每一个块中各个类别卷积层的滤波器滤波通道大小及剪枝权重,通过能够调节滤波通道大小的滤波器,来进行权值的重要性筛选; 步骤S5:使用剪枝后的智能模型执行推理任务,当不满足推理任务时,调整滤波通道大小,包括: S51:根据误差计算公式计算每阶段的推理任务的预设误差E's,则累计误差s为阶段数; S52:当E'>ξ时,调整滤波通道大小中的参数,使预设系数k=k+0.1;ξ为预设误差阈值; S53:返回步骤S52,直至E'≤ξ为止,重新参与运算,再次更新深度卷积神经网络模型DNN; 步骤S6:根据任务类型选择对应的激活函数,对优化后的神经网络模型进行重新训练,包括:神经网络模型会根据输入的任务类型生成一个选择信号,选择信号是一个标志位或编码值,根据选择信号神经网络模型自动选择相应的激活函数,应用于神经元的输出层,选择了激活函数后,神经网络模型会根据选择的激活函数重新调整网络的权重参数,并进行重新训练; 步骤S7:对剪枝之后的深度卷积神经网络模型DNN进行量化; 步骤S8,对量化后深度卷积神经网络模型DNN的网络结构进行知识蒸馏,并优化; 步骤S9,设计通用硬件加速器,其中,所述通用硬件加速器的集成电路由CPU、GPU和现场可编程门阵列FPGA共同构成,线性训练任务由CPU完成,非线性训练任务由GPU完成; 步骤S10,将优化后的深度卷积神经网络模型DNN部署在FPGA中;根据优化后的深度卷积神经网络模型DNN和FPGA的资源限制,选择对应的硬件并行化结构,包括计算单元、控制单元和存储单元,将优化后的深度卷积神经网络模型DNN部署在FPGA当中,实现硬件加速。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广州佳新智能科技有限公司,其通讯地址为:510000 广东省广州市黄埔区(中新广州知识城)凤凰四路99号自编A栋685房;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。