Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 武汉科技大学;武汉凌久微电子有限公司;上海首冶匠芯自动化有限公司李晓卉获国家专利权

武汉科技大学;武汉凌久微电子有限公司;上海首冶匠芯自动化有限公司李晓卉获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉武汉科技大学;武汉凌久微电子有限公司;上海首冶匠芯自动化有限公司申请的专利一种基于聚类状态空间降维的Q-learning电动汽车群体充电调度方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120746218B

龙图腾网通过国家知识产权局官网在2025-12-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511239838.0,技术领域涉及:G06Q10/0631;该发明授权一种基于聚类状态空间降维的Q-learning电动汽车群体充电调度方法是由李晓卉;张腾;蔡彬;陈静;代征;黄松;贾海设计研发完成,并于2025-09-02向国家知识产权局提交的专利申请。

一种基于聚类状态空间降维的Q-learning电动汽车群体充电调度方法在说明书摘要公布了:本发明公开了一种基于聚类状态空间降维的Q‑learning电动汽车群体充电调度方法,涉及电动汽车集群调度技术领域,先基于用户充电意愿和电动汽车集群充电功率确定调度范围,再构造马尔科夫决策模型,接着在强化学习算法中嵌入K‑means聚类的状态空间降维模块得到聚类强化学习算法,最后求解模型输出最优调度策略;本发明能通过聚类将高维状态空间压缩至常数复杂度,解决传统强化学习在大规模电动汽车群协同调度中的“维度灾难”问题,且采用非神经网络推理架构,在计算效率与数据利用上优势显著,既降低硬件资源消耗与部署成本,又能在小样本条件下快速收敛,减少对训练数据规模的依赖。

本发明授权一种基于聚类状态空间降维的Q-learning电动汽车群体充电调度方法在权利要求书中公布了:1.一种基于聚类状态空间降维的Q-learning电动汽车群体充电调度方法,其特征在于,包括: S1、基于用户充电意愿和电动汽车集群的充电功率,确定电动汽车集群调度范围; S2、基于所述电动汽车集群调度范围,将电动汽车充电调度决策构造为马尔科夫决策模型; S3、获取强化学习算法,在所述强化学习算法的框架基础上嵌入K-means聚类的状态空间降维模块,得到聚类强化学习算法; S4、通过所述聚类强化学习算法对构造的马尔科夫决策模型进行求解,输出最优调度策略,使得电动汽车充电调度决策在所述最优调度策略下进行最佳调度; 基于用户充电意愿和电动汽车集群的充电功率,得到电动汽车群参与需求响应调度的可调度范围,表示为: ; ; ; ; 其中,是满足电动汽车车主最低通勤需求的最低电池状态;和分别表示最小和最大充电速率,和分别表示最小和最大放电速率;和分别表示t时刻电动汽车群可调度范围的上限和下限,为第i个电动汽车的电池状态,为电动汽车充放电过程中的充电速率,为电动汽车充放电过程中的放电速率,为t时刻电动汽车群的可调度范围; 将电动汽车充电调度决策构造为马尔科夫决策模型,包括: 定义智能体状态的公式为: ; 其中表示智能体状态,t表示当前时间段,表示第i个电动汽车聚类群的平均电池状态,表示充电电价; 智能体动作的公式为: ; 其中,表示智能体动作,表示充电站低功率充电功率,表示充电站高功率充电功率; 智能体奖励的公式为: ; 其中,表示最大电价,表示当前集群执行的总充电功率,表示最大功率,表示所设定的理想目标电量水平,表示电池状态阈值下限,表示权重参数,用于平衡成本、电量接近度及低电量保护的相对重要性; S4具体包括: S41、定义求解输入和求解输出,求解输入包括充电电价,每个电动汽车聚类群的电池状态和当前时间段;求解输出包括每个电动汽车聚类群每个小时的充电量; S42、初始化迭代参数,包括设定最大迭代次数,初始化学习率α、折扣因子γ和Q值表;基于历史负载曲线数据,通过K-means算法生成电动汽车集群聚类; S43、输入当前时刻t的智能体状态; S44、通过-贪心策略选择电动汽车集群充放电动作; S45、执行相应动作,得到智能体奖励后进入下一时刻,智能体状态由转移到,包括: ; 其中为动作引起的soc变化量; S46、基于时序差分算法更新Q值; S47、重复执行步骤S43-S46,直到达到最大迭代次数; 所述-贪心策略定义为: ; 其中,为探索率,为离散动作空间; 基于时序差分算法更新Q值具体为: ; 其中,为执行当前动作后获得的即时奖励,为下一状态的最优动作值。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉科技大学;武汉凌久微电子有限公司;上海首冶匠芯自动化有限公司,其通讯地址为:430081 湖北省武汉市青山区和平大道947号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。