Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 杭州卷积云科技有限公司杨树森获国家专利权

杭州卷积云科技有限公司杨树森获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉杭州卷积云科技有限公司申请的专利一种实时边云协同卷积神经网络推理方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114970823B

龙图腾网通过国家知识产权局官网在2025-08-29发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210611109.3,技术领域涉及:G06N3/0464;该发明授权一种实时边云协同卷积神经网络推理方法及系统是由杨树森;赵聪;赵鹏;张展华;任雪斌;余翰乔;韩青;郭思言设计研发完成,并于2022-05-31向国家知识产权局提交的专利申请。

一种实时边云协同卷积神经网络推理方法及系统在说明书摘要公布了:一种实时边云协同卷积神经网络推理方法及系统,包括以下步骤:将压缩后的CNN模型转化为边云协同推理模型SW‑CNN;得到SW‑CNN各层在各压缩率下的通信计算延时;根据实时网络性能调整压缩率c;建模实时边云协同推理控制问题并求解,为SW‑CNN选择压缩率;调整SW‑CNN的压缩率至cn,分析任务pn。本发明将CNN模型划分为边缘和云端两部分,通过边缘少量模型计算压缩原始数据,之后将边缘输出的CNN模型中间数据上传给云,在云端完成大量模型计算得到最终推理结果,实现高精度、高响应性的实时CNN推理,根据实时任务负载和网络环境,动态调整模型压缩率,支撑波动的网络环境中的实时流式智能分析。

本发明授权一种实时边云协同卷积神经网络推理方法及系统在权利要求书中公布了:1.一种实时边云协同卷积神经网络推理方法,其特征在于,包括以下步骤: 在边缘设备上对CNN模型通过特征图压缩,将压缩后的CNN模型转化为边云协同推理模型SW-CNN; 在给定的边云系统中进行信息搜集得到SW-CNN各层在各压缩率下的通信计算延时; 对实时边云协同CNN推理控制问题进行建模,对按照时间序列i=1,2...到来的流式推理任务,根据实时网络性能调整压缩率c; 初始化任务队列,控制器根据当前的任务剩余时间信息及实时网络情况,建模实时边云协同推理控制问题并求解,为SW-CNN选择压缩率;调整SW-CNN的压缩率至cn,处理任务pn; 任务pn完成后,若任务队列不为空,则重复调整SW-CNN的压缩率至cn,处理任务pn,直到处理完任务队列中的所有任务; 在边缘设备上对CNN模型通过特征图压缩具体包括: 给定CNN层之间的通信数据为特征图,其数据量Ds=Fs*Fn*Fb,其中Fs表示单张特征图的面积,Fn表示特征图的数量,Fb表示量化后的数据bit位数,分别降低Fn和Fb,假设经过压缩操作后剩余的特征图数量为Frn,剩余的数据量化位数为Frb,则Frn,Frb为当前的压缩设置,该设置的通信压缩率c=1-Frn*FrbFn*Fb,剩余率r=1-c,经过压缩之后,在原有数据集上通过端到端训练进行模型微调以恢复精度,计算压缩率-精度的帕累托集合,确定选取相同压缩率下精度最高的方案; 将压缩后的CNN模型转化为边云协同推理模型SW-CNN具体包括: SW-CNN转化,对于给定的CNN模型,得到大具有不同压缩率及精度的CNN模型,将给定CNN模型转化为集成了不同压缩率的CNN模型的SW-CNN模型,对于给定的CNN模型,其相应的SW-CNN模型具有相同的结构,对于给定的具有FN及FB的划分层,根据不同压缩设置生成不同的子模型,除给定划分层外,不同的子模型共享所有参数,对于压缩层,不同的子模型根据Frn,Frb相互嵌套并共享参数,使用Frn,Frb压缩设置的子模型使用从序号1到Frn的特征图及1到Frb的数据bit位数,故Frn,Frb大的子模型包含了特征图数量及压缩位数小的子模型,即小的子模型嵌套在大的子模型中; 调整压缩率: 当上一任务pn-1完成时,控制器以当前任务数量pn、上一任务给当前任务留下的剩余时间ln-1以及当前的网络带宽bn为输入,决定当前对于该批任务的压缩率cn以最大化实时的性能指标RP,若任务pn-1在时刻完成,则下一批任务pn的完成时间其中rcn,pn表示该批任务的计算时间,表示通信时间,考虑用户限定延时luser,任务pn的剩余时间为其中x_=min{x,luser}以保证剩余时间不大于用户给定时间,Δtn-1,n为前后两批任务到来的时间间隔,若ln<0任务pn一定延误,对于任务p1到pn,平均精度为延误率为其中*表示阶跃函数,控制目标函数为其中γ为非负实数,表示用户对于实时控制的偏向,γ越大,控制越倾向于降低延误率,同时可以容忍更高的精度损失,实时推理控制问题建模为求解 s.t. l0=luser c1,c2,…,cN∈CPareto 其中,CPareto表示仅选取帕累托集合中的压缩率以保证相同压缩率下提供最高的推理精度,l0表示第一个任务的剩余时间,若无积压任务可以立即处理,l0等于luser;若有积压任务,设当前积压任务已到来t0时间,则l0=luser-t0; 为SW-CNN选择压缩率 若任务队列为空,挂起;否则,从队列加载当前推理任务pn,采样当前带宽bn、上一任务的剩余时间和当前队列长度N,基于模型预测控制算法,预测未来N个时间点的任务及带宽其中,N等于积压的任务批数,建模实时边云协同推理控制问题,通过离散带宽数据将规划优化问题转化为组合优化问题,使用模拟退火算法搜索最优方案,其中,当积压任务变多时,选取更高的压缩率以保证实时性,设完整的压缩率集合为CPareto,当队列中积压了N批任务时,通过在CPareto中按从小到大的顺序删除前N个较小的压缩率得到当前可行的压缩率集合C'Pareto,并使得可行集合的容量cardC'Pareto等于cardCPareto-N+,当N=1时,搜索空间等于cardCPareto,随着N的增大可行集合的容量cardC'Pareto逐渐增大。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州卷积云科技有限公司,其通讯地址为:310000 浙江省杭州市余杭区仓前街道良睦路1288号6幢302-1室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。