南京工业大学白光伟获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京工业大学申请的专利基于实例自适应动态神经网络的自动驾驶多目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117237893B 。
龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202311170353.1,技术领域涉及:G06V20/56;该发明授权基于实例自适应动态神经网络的自动驾驶多目标检测方法是由白光伟;王源一;沈航;王天荆设计研发完成,并于2023-09-12向国家知识产权局提交的专利申请。
本基于实例自适应动态神经网络的自动驾驶多目标检测方法在说明书摘要公布了:针对自动驾驶中的多实例检测任务,本发明提出一种基于实例自适应动态神经网络的自动驾驶多目标检测方法,首先由车载设备捕获图像;然后由动态神经网络模型对作为实例的图像进行检测并识别其中目标。动态神经网络模型的构建过程为:首先,开发基于课程学习CL的策略网络训练框架,用于提取的任务特征并生成与任务属性相匹配的路由向量;然后,路由向量被映射到由多分支残差块组成的检测网络中,用于指导残差块的开启和关闭;最后,构建联合训练框架,策略网络生成的路由向量被用来调节检测网络路由、优化参数;检测网络的输出被反馈至策略网络,用以优化路由向量的生成。本方法以实例自适应的动态神经网络方法为核心,兼顾检测精度与推理速度。
本发明授权基于实例自适应动态神经网络的自动驾驶多目标检测方法在权利要求书中公布了:1.一种基于实例自适应动态神经网络的自动驾驶多目标检测方法,首先,由车载设备捕获图像;然后,由动态神经网络模型对作为实例的图像进行检测并识别其中目标;其特征是所述动态神经网络模型的构建过程为: 1设计基于课程学习CL的轻量化策略网络,用于提取的任务特征,并生成与任务属性相匹配的路由向量; 2路由向量被映射到由k个多分支残差块串联构成的检测网络中,用于指导各个多分支残差块的开启和关闭;“多分支残差块”简称为“块”;检测网络存在2k种块的开关策略,即存在2k-1条可选的路由; 3建立联合训练框架,在该联合训练框架下,策略网络生成的路由向量被用来调节检测网络路由、优化参数;检测网络的输出被反馈至策略网络,用以优化路由向量的生成; 步骤1中,基于CL的策略网络设计: 策略网络是由神经网络模型构建;策略网络帮助预训练的检测网络寻找块的最佳组合; 采用CL方法训练策略网络:从检测网络的全部k个块中选取h个进行训练;第一轮h为1,后续随着h的增加,逐渐关联和优化更多块的开关,直至h等于k时覆盖全部的块;策略网络在关联h个残差块时,保持前k-h个块打开,并只学习后h个块的开关策略; 根据复杂度,为训练样本分配不同的权重:初始训练阶段,简单样本被分配最高的权重,按照从易到难,样本的权重被逐渐调高;对于训练样本,CL的每次优化都采用不同的权重进行加权; 假设训练样本的原始分布为Pz,第λ次优化时赋予每个样本的权重为0≤Wλz≤1,其中0≤λ≤1且W1z=1;在第λ次优化时,训练样本分布表示为: 其中∫Qλzdz=1;当λ=1时,Q1z=Pz; 采用不等式2保证Qλz的信息熵HQλ单调递增; 采用不等式3保证Wλz单调非递减; 步骤2中,对于串联的k个块,yi输入给第i个块得到Fiyi,把yi+1=Fiyi+yi作为第i+1个块的输入;如果块被关闭,则检测网络的推理过程跳过该块,转到下一个开启的块,得到一条推理路由;其中,下标i表示块的编号; 步骤3中,采用联合训练框架联合训练策略网络和检测网络; 联合训练框架中块的选取由策略网络控制;策略向量输出一串二进制决定变量用以表示保留或删除某个块,其中每个删除块的决策对应于从检测网络中删除一个路径;在联合训练过程中,根据块的使用情况和检测网络预测精度,在检测网络中运行策略向量指定的块来生成奖励; 策略网络一次性输出检测网络的全部推理路由来预测检测网络的所有动作,视为一个给定输入状态的单步马尔可夫决策过程: 给定图像x和一个预先训练的由K个块构成的检测网络,选取块的策略被定义为K维伯努利分布,即 策略网络被描述为一个关于图像x和权重W的函数fx;W;图像x经激活函数σx=11+e-x处理后的输出结果被表示为策略向量s s=fx;W5 令s∈[0,1]为策略向量s中的第k个元素,它的值代表第k个块被开启的概率; 策略网络根据s生成动作向量u,决定参与推理的块; 令0-1决定变量u对应u中的第k个元素,u=1和u=0分别代表第k个块的开启和关闭第k个块; 设计奖励函数来量化动作向量u带来的收益,并引导策略网络寻找到更优的推理路由,在保证预测结果与真实标签一致的基础上,尽可能减少检测网络路由的长度;奖励函数被形式化为 其中,表示被开启的块在整个检测网络中所有块的占比;则当预测结果正确时,路由长度越短,给予的正向奖励越多,以鼓励策略网络跳过更多块;γ被用来惩罚错误的预测; 通过最大化奖励期望来获得训练最佳策略网络参数,奖励期望表示为: 综上,式5生成的路由策略决定检测网络中哪些块执行前向传播,以生成预测结果;同时,策略网络根据预测正确与否和块的使用数量来计算奖励值; 采用策略梯度法搜索能使奖励期望最大化的梯度,对于uk∈{0,1},策略梯度被计算为: 蒙特卡罗抽样被用于获取式8的期望梯度,自我批判基线被用于式8以减少方差,则得到 其中,为当前策略下最有可能被选中的路由策略;当且仅当0.5si1时,ui=1,否则ui=0; 引入权重因子α∈[0,1],并将式5更新为 s=α·s+1-α·1-s10 使得si∈[1-α,α],以采样多样化的策略向量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京工业大学,其通讯地址为:211816 江苏省南京市江北新区浦珠南路30号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励