Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国人民解放军国防科技大学徐昕获国家专利权

中国人民解放军国防科技大学徐昕获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国人民解放军国防科技大学申请的专利一种多车路口协调决策与控制的高效强化学习方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120010267B

龙图腾网通过国家知识产权局官网在2025-07-08发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510464332.3,技术领域涉及:G05B13/04;该发明授权一种多车路口协调决策与控制的高效强化学习方法是由徐昕;陆阳;张荣华;张兴龙;谢海斌;方强设计研发完成,并于2025-04-14向国家知识产权局提交的专利申请。

一种多车路口协调决策与控制的高效强化学习方法在说明书摘要公布了:本发明公开了一种多车路口协调决策与控制的高效强化学习方法,包括:离线策略训练,提取采集的高维样本的特征得到近似线性无关的子样本,并利用子样本构造基函数,得到动作‑状态值函数的逼近结构;在所述在线部署控制中:根据观测到的无人车实时状态量,部署决策策略得到无人车采用动作后的效用函数,并根据无人车之间的协同关系得到局部联合动作回报函数,从而得到相应的全局值函数和决策动作,同步更新无人车的控制策略和当前状态。本发明应用于多无人车路口协同决策和控制领域,具有值函数表征能力强、在线计算效率高的优势,能够提升多无人车路口通行的时效性和安全性。

本发明授权一种多车路口协调决策与控制的高效强化学习方法在权利要求书中公布了:1.一种多车路口协调决策与控制的高效强化学习方法,其特征在于,包括样本数据采集、离线策略训练与在线部署控制三个阶段; 在所述样本数据采集中: 根据马尔科夫决策过程,基于随机采样生成每个无人车的样本集,其中,每个无人车的样本集大小为,每个时间步的样本元组包含,表示在时刻的当前状态下,在动作空间中随机决策出一个动作,该动作会驱动无人车更新状态得到,奖励函数为; 在所述离线策略训练中: 在每个无人车的样本集的基础上,采用核稀疏化方法提取采集的高维样本的特征,得到近似线性无关的子样本,并利用子样本构造每一个原始样本点所对应的基函数,得到动作-状态值函数的逼近结构,再以极小化强化学习的时域差分误差为目标更新动作-状态值函数的逼近结构中的网络权值向量,所述动作-状态值函数的逼近结构为: 其中,为原始样本点所对应的基函数,为核函数,、、、为到不同时刻第个无人车的训练样本,为矩阵的转置,为维的特征空间,为动作-状态值函数的逼近结构,为网络权值向量,为权值矩阵; 所述以极小化强化学习的时域差分误差为目标更新动作-状态值函数的逼近结构中的网络权值向量包括: 获取强化学习的时域差分误差,为: 其中,为强化学习的时域差分误差,为目标动作-状态值函数,为候选的决策动作,、为正定的权值矩阵,为折扣因子,为状态转移后的动作-状态值函数; 基于动作-状态值函数的逼近结构,改写强化学习的时域差分误差,为: 在强化学习改写后的时域差分误差两边同时乘以基函数,并令中间参量、为: 由于中间参量是满秩的,从而得到网络权值向量的最小二乘解,即; 在所述在线部署控制中: 根据观测到的无人车实时状态量,部署决策策略得到各个动作对应的动作-状态值函数,即得到无人车采用动作后的效用函数,并根据无人车之间的协同关系得到局部联合动作回报函数,基于效用函数与局部联合动作回报函数得到无人车的全局值函数,并根据全局值函数得到无人车的决策动作,最后根据无人车的决策动作学得无人车的控制策略,更新无人车状态。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国人民解放军国防科技大学,其通讯地址为:410073 湖南省长沙市开福区德雅路109号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。