长春工业大学李慧获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉长春工业大学申请的专利复杂动态环境下基于强化学习的机器人自主导航的模型训练方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120558244B 。
龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511063822.9,技术领域涉及:G01C21/20;该发明授权复杂动态环境下基于强化学习的机器人自主导航的模型训练方法是由李慧;王浩鑫;姜志宇;张秀梅;罗明月设计研发完成,并于2025-07-31向国家知识产权局提交的专利申请。
本复杂动态环境下基于强化学习的机器人自主导航的模型训练方法在说明书摘要公布了:本发明公开了一种复杂动态环境的基于强化学习的机器人自主导航方法,涉及强化学习、机器人导航等技术领域。本发明旨在解决多目标强化学习中,目标之间存在冲突,导致导航策略难以动态权衡、决策灵活性不足的问题。首先,创建仿真环境并构建Bayesian‑RVO模型用于对仿真环境中的行人行为模拟;其次,引入博弈论中的均衡响应原理设计奖励函数并构建博弈论框架;然后,设计基于Stackelberg博弈结构的双层决策网络;在此基础上,引入BNN结构的Critic网络;最后,进行模型训练。与现有方法相比,本发明在复杂环境下表现出更高的导航成功率、更低的碰撞率和更强的路径合理性,显著提升了机器人在复杂环境中的自主导航性能,可应用于农业、工业、服务业等领域。
本发明授权复杂动态环境下基于强化学习的机器人自主导航的模型训练方法在权利要求书中公布了:1.复杂动态环境下基于强化学习的机器人自主导航的模型训练方法,其特征在于,包括以下步骤: 步骤一、建立仿真环境,使用Webots仿真软件自定义环境,添加机器人、行人和固定障碍物,构建Bayesian-RVO行人模拟框架; 步骤二、设计状态、动作空间,将环境状态细分为机器人、行人以及固定障碍物的状态,机器人状态包括机器人位置、速度大小以及运动方向信息;行人状态则包含其位置、速度大小、运动方向要素;固定障碍物状态包含其位置信息,在此基础上,引入社交关系概念,机器人与行人之间的距离关系,机器人可执行的动作有加速、减速、转弯,对机器人的最大速度和加速度加以限制,并且在决策过程中充分考虑行人的运动状态; 步骤三、引入博弈论设计奖励函数,奖励函数包括安全奖励函数,社交奖励函数,效率奖励函数; 步骤四、构建博弈论奖励函数框架,参与博弈的三个奖励函数分别为,安全奖励函数、社交奖励函数、效率奖励函数,将安全奖励函数设为Leader,并分别将效率奖励函数和社交奖励函数设为Follower; 步骤五、设计GT-A2C网络,使用BNN-Critic作为GT-A2C中Critic网络,并设计融合Stackelberg博弈结构的Actor网络,由Leader子策略网络输出机器人速度大小v,再由Follower子策略网络在此基础上生成方向组合权重a·β·γ共同构成最终动作,再进行模型训练,优化模型参数: Step1:初始化GT-A2C网络; Step2:将BayesianReciprocalVelocityObstacles框架接入仿真环境中,用于模拟行人的运动轨迹; Step3:使用主节点控制训练过程,使用融合Stackelberg博弈的Actor决策网络和BNN-Criric网络模型生成机器人的动作和评估状态的价值函数; Step4:使用多个同步的副节点继续和环境进行交互,每个副节点使用Actor模型生成机器人的动作、执行动作并观察环境,最后更新BNN-Critic模型的参数; Step5:采用梯度下降来更新融合Stackelberg博弈的Actor决策网络和BNN-Criric网络的参数,并使用同步的方式将参数更新到主节点中; Step6:达到训练要求结束训练,未达到训练要求则重复Step3。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春工业大学,其通讯地址为:130000 吉林省长春市朝阳区延安大街长春工业大学南湖校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励