大连理工大学姚宝珍获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉大连理工大学申请的专利基于深度强化学习与A-Star算法的自动驾驶决策规划方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119160215B 。
龙图腾网通过国家知识产权局官网在2025-11-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411281914.X,技术领域涉及:B60W60/00;该发明授权基于深度强化学习与A-Star算法的自动驾驶决策规划方法是由姚宝珍;杨卫晨;姜萌;冯锐;廖宇翔设计研发完成,并于2024-09-13向国家知识产权局提交的专利申请。
本基于深度强化学习与A-Star算法的自动驾驶决策规划方法在说明书摘要公布了:本发明公开了基于深度强化学习与A‑Star算法的自动驾驶决策规划方法,通过A‑Star算法进行全局路径规划,并利用深度强化学习模型处理局部环境感知信息,做出实时决策;通过设置奖励函数来训练神经网络模型,使其能够在保证安全性的前提下,有效地处理复杂的交通环境,并具有良好的实时性和灵活性;引入了基于车速的动态安全车距计算机制,以及对偏离全局路径、靠近前方车辆等行为的奖惩机制,以提升行驶安全性;通过仿真环境训练,智能体能够学习最佳的驾驶策略,实现更高效、更智能的自动驾驶。本发明方法,能够高效、准确地为自动驾驶车辆提供行驶决策,并具有良好的泛化能力和适应性,以适应复杂多变的交通环境。
本发明授权基于深度强化学习与A-Star算法的自动驾驶决策规划方法在权利要求书中公布了:1.一种基于深度强化学习与A-Star算法的自动驾驶决策规划方法,其特征在于,包括以下步骤: S1、使用A-Star算法在已知地图上进行全局路径规划; S2、搭建基于深度强化学习的神经网络模型,所述神经网络模型负责处理局部环境感知信息并做出实时决策; S3、对神经网络模型设置奖励函数; S4、神经网络模型接收由感知系统获取并传递来的感知信息; S5、利用步骤S1的全局路径信息、步骤S3的奖励函数以及步骤S4的感知信息,对步骤S2的神经网络模型进行训练; S6、神经网络模型中的强化学习模块基于感知信息和A-Star算法提供的全局路径规划,使用训练后的神经网络模型对局部路径进行优化,然后输出决策; 在步骤S5中,对步骤S2的神经网络模型进行训练,包括独立场景的训练和混合场景的训练; 所述独立场景,为直道场景、急弯场景、交叉路口场景、匝道场景、环道场景中的一个场景;所述混合场景,为直道场景、急弯场景、交叉路口场景、匝道场景以及环道场景中的两种或多种场景的组合; 训练时,采用的Q函数为:,其中,s表示输入状态向量即当前状态,表示在当前状态s下所采取的动作,表示神经网络的参数,为输入层到隐藏层的权重矩阵,为隐藏层到输出层的权重矩阵,为隐藏层的偏置向量,为输出层的偏置向量,为非线性激活函数; 损失函数定义为目标Q值和当前Q网络预测的Q值之间的均方误差,损失函数公式为: , 式中,表示期望值,通常是对一个小批量mini-batch样本的均值,用于稳定梯度更新; 目标Q值是基于当前奖励和下一状态的最大Q值计算得到的,其计算方式如下: , 式中,为基于神经网络模型的智能体在状态下采取动作a后获得的即时奖励;为折扣因子,取值范围在[0,1]之间,表示未来奖励的折扣率;表示智能体采取动作a后到达的下一个状态,表示在下一个状态下,所有可能动作中最大Q值所对应的动作,表示目标Q网络的参数; 将目标Q值代入损失函数中,得到具体的损失函数表达式: , 通过最小化这个损失函数,DQN网络中的参数会逐渐调整,以使网络更准确地预测每个状态-动作对的Q值,从而改善神经网络模型的决策能力。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116000 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励