南京邮电大学郑会获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京邮电大学申请的专利一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115841158B 。
龙图腾网通过国家知识产权局官网在2025-09-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211723861.3,技术领域涉及:G06N7/02;该发明授权一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法是由郑会;李鹏;陈静;徐鹤;王汝传设计研发完成,并于2022-12-30向国家知识产权局提交的专利申请。
本一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法在说明书摘要公布了:一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法,首先研究基于自动驾驶语义的适应度函数与奖励函数强化过程,然后研究基于格兰杰因果关系的模糊关联分析方法,再根据强化学习结果,进行格兰杰因果分析的转化,最后提出基于格兰杰因果关系的强化学习的自动驾驶风险预测模型,同时实现基于时间序列数据的风险因素追溯。通过本发明提出方法,自动驾驶车辆可以在较少的人为干预帮助下进行自我路况检测与简单风险规避。
本发明授权一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法在权利要求书中公布了:1.一种基于格兰杰因果关系检验的可解释强化学习的风险预测方法,应用于机动车自动驾驶,其特征在于,包括以下步骤: S1、针对自动驾驶风险数据进行语义分析,通过基于语料库的语义分析之后,使用模糊集合表示用户自定义目标,并将目标进行初步量化,得到基于模糊集的驾驶风险适应度函数; S2、根据步骤S1得到的所述基于模糊集的驾驶风险适应度函数,结合机动车辆智能体与策略集合的关系,将其转化为强化学习中与其对应的风险相关奖励函数,其中, s为车辆驾驶状态集合S中的一个变量,, a为驾驶动作集合A中的一个变量,; 对最终的风险相关奖励函数来说,其函数值越高,当前车辆的状态与动作越安全;反之,则当前驾驶状态越危险; S3、通过基于模糊集合的理论进行基于奖励函数的自动驾驶因素空间构建,将驾驶风险因素保存在潜在的原因集合中,得到初始驾驶风险潜在原因集合,其中为初始的潜在原因总数; S4、根据步骤S3得到的所述初始驾驶风险潜在原因集合,通过基于时间序列的驾驶风险模糊关联分析方法,用户自定义模糊支持度与隶属度,通过格兰杰因果假设检验方法,得到初步筛选后的驾驶风险潜在原因集合,其中,为初步筛选后驾驶风险潜在的原因总数; S5、根据路况上每个机动车辆智能体的驾驶行为策略导致环境正的奖赏,找出初始的风险相关奖励函数,规则需满足:如果某个驾驶行为策略导致低风险环境正的奖赏,那么机动车辆Agent以后产生这个行为策略的趋势便会加强,机动车辆Agent的目标是在每个离散状态发现最优策略以使自动驾驶风险更小; S6、根据步骤S5构建的所述初始的风险相关奖励函数与步骤S4得到的所述初步筛选后的驾驶风险潜在原因,初步构建自动驾驶风险预测强化学习模型; S7、根据步骤S6构建的所述自动驾驶风险预测强化学习模型,根据初始的风险相关奖励函数与适应度函数驾驶风险的关系,匹配所述初步筛选后的驾驶风险潜在原因与适应度函数驾驶风险,结合初步筛选后的驾驶风险潜在原因构建基于潜在自动驾驶风险因素的格兰杰因果关系的强化学习模型; S8、根据强化学习得到的格兰杰因果关系,在时间序列数据集合上进行格兰杰因果判定,并找出有利于适应度函数驾驶风险的自动驾驶风险的格兰杰原因''; S9、根据步骤S8找到的所述自动驾驶风险的格兰杰原因'',对适应度函数驾驶风险进行预测,并通过增加格兰杰原因''里面因素的比重,引导并辅助当前机动车辆作出最安全的驾驶行为。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京邮电大学,其通讯地址为:210046 江苏省南京市仙林大学城文苑路9号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励