中国科学技术大学李厚强获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉中国科学技术大学申请的专利多智能体场景的强化学习与应用方法、系统、设备及介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116245156B 。
龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310069298.0,技术领域涉及:G06N3/08;该发明授权多智能体场景的强化学习与应用方法、系统、设备及介质是由李厚强;周文罡;胡迅晗;赵鉴;赵有朋设计研发完成,并于2023-02-06向国家知识产权局提交的专利申请。
本多智能体场景的强化学习与应用方法、系统、设备及介质在说明书摘要公布了:本发明公开了一种多智能体场景的强化学习与应用方法、系统、设备及介质,设计了基于自注意力机制的值函数分解模块,它构造了智能体对的动作值,然后使用联系系数对它们进行加权,联系系数测量了智能体在多智能体系统中相互联系关系。解决了在价值分解方法中直接使用自注意机制所带来的最优动作一致原理不能得到保证的问题。基于自注意力机制的值函数分解模块可以被视为一个基本模块,应用于现有的价值分解方法,以提高性能。在多个模拟环境上的实证结果进一步表明,基于自注意力机制的值函数分解模块学习了多智能体系统中智能体之间合理的内部联系关系,与现有方案相比,学习性能有了显著提高。
本发明授权多智能体场景的强化学习与应用方法、系统、设备及介质在权利要求书中公布了:1.一种多智能体场景的强化学习与应用方法,其特征在于,包括: 按照应用场景配置多个智能体,获取各智能体结合应用场景中的观测信息产生的个体动作值函数,以及个体动作观察历史轨迹;其中,应用场景至少包括:自动驾驶汽车、计算机游戏场景; 训练阶段:对于当前智能体与每一智能体分别形成的智能体对,均分别基于自注意力机制的值函数分解模块,利用相应智能体的个体动作值函数与个体动作观察历史轨迹,计算出每一智能体对的动作值函数,结合每一智能体对中智能体的个体动作观察历史轨迹计算联系系数,利用联系系数融合智能体对的动作值函数获得当前智能体的融合动作值函数;通过其他值函数分解模块结合所有智能体的融合动作值函数生成全局动作值函数,结合全局动作值函数建立训练目标,优化智能体、基于自注意力机制的值函数分解模块与其他值函数分解模块,获得优化后的智能体; 推理阶段:各优化后的智能体结合应用场景中的观测信息产生个体动作值函数,并选择一个所属应用领域的动作执行; 其中,所述对于当前智能体与每一智能体分别形成的智能体对,均分别基于自注意力机制的值函数分解模块,利用相应智能体的个体动作值函数与个体动作观察历史轨迹,计算出每一智能体对的动作值函数包括:记当前智能体为智能体i,其与智能体j形成一个智能体对i,j;基于自注意力机制的值函数分解模块中的智能体对编码器fij计算智能体对i,j的动作值函数Qij,其中,i=1,...,N,j=1,...,N,N为智能体总数,智能体对编码器fuj中的权重参数与偏置参数通过智能体i与智能体j的个体动作观察历史轨迹经过所述基于自注意力机制的值函数分解模块中的超参网络产生; 所述利用相应智能体的个体动作值函数与个体动作观察历史轨迹,计算出每一智能体对的动作值函数包括: 对于智能体对i,j,智能体对i,j的动作值函数Qij的计算方式表示为: 其中,Qi为智能体i的个体动作值函数,Qj为智能体j的个体动作值函数,σ表示激活函数,与为智能体对编码器fij的权重参数,且均为正数;与为智能体对编码器fij的偏置参数,与均通过智能体i与智能体j的个体动作观察历史轨迹经过所述超参网络产生。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学技术大学,其通讯地址为:230026 安徽省合肥市包河区金寨路96号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。