Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 青岛理工大学王金龙获国家专利权

青岛理工大学王金龙获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉青岛理工大学申请的专利基于多目标强化学习的拆解线平衡优化方法、系统及介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120494441B

龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510976103.X,技术领域涉及:G06Q10/0631;该发明授权基于多目标强化学习的拆解线平衡优化方法、系统及介质是由王金龙;李敏;孟凡云;张媛媛;熊晓芸;赵浩然;赵小琪设计研发完成,并于2025-07-16向国家知识产权局提交的专利申请。

基于多目标强化学习的拆解线平衡优化方法、系统及介质在说明书摘要公布了:本申请涉及数据处理技术预测领域,公开了基于多目标强化学习的拆解线平衡优化方法、系统及介质,方法:S1、获取输入数据并预处理;S2、构建状态空间、动作空间和目标函数,部署训练环境;S3、训练多目标强化学习模型:通过MO‑DQN算法引入偏好向量动态调整目标权重,根据S1获取的拆解数据,计算目标函数,优化S2中的多个目标,结合ε‑贪婪策略和NSGA‑II算法选择动作策略;S4、将训练好的模型生成的最优策略应用于拆解线中的任务分配。通过引入偏好向量,根据任务的具体需求动态调整目标权重,不仅能有效处理目标之间的冲突,还能根据不同情境的变化自动调整优化策略,提升拆解任务中的任务调度与资源分配效率。

本发明授权基于多目标强化学习的拆解线平衡优化方法、系统及介质在权利要求书中公布了:1.基于多目标强化学习的拆解线平衡优化方法,其特征在于,包括以下步骤: S1、获取输入数据并预处理: 获取拆解任务执行过程中的各类数据并进行预处理,记录拆解优先关系约束,构建拆解优先关系约束矩阵,获取拆解任务的危害属性及需求属性,获取不同的拆解任务分别在人工工作站和机器人工作站上的拆解时间、拆解成本和拆解能耗; S2、构建状态空间、动作空间和目标函数,部署训练环境: 所述状态空间包括有若干个状态特征,所述状态特征包括以下状态中的至少一种:工作站负载状态、机器人负载状态、任务分配状态、前驱任务完成状态、后继任务启发状态、任务-工位拟合状态和周期偏移状态;所述动作空间中包括若干个动作策略,所述动作策略包括以下策略中的至少一种:最长执行时间优先策略、最短执行时间优先策略、最少前驱任务数优先策略、最多后继任务数优先策略、周期时间匹配度最优策略和随机策略;基于工作站数量、拆解成本与拆解能耗三个目标设计目标函数,基于MO-DQN算法构建多目标强化学习模型;S2中目标函数表示为: R=-w1f1+w2f2-w3f3; 其中,w1、w2、w3为各目标的权重系数,反映各目标在决策中的相对重要性,实现不同目标之间的协同优化,f1表示工作站数量,f2表示拆解成本,f3表示拆解能耗; S3、训练多目标强化学习模型: 所述多目标强化学习模型通过MO-DQN算法引入偏好向量动态调整目标权重,根据S1中获取的拆解数据,计算目标函数,优化S2中的多个目标,通过结合ε-贪婪策略和NSGA-II算法选择动作策略,最终收敛到一个能够平衡多个目标的最优模型; 在训练过程中,MO-DQN算法将多个目标值组合形成一个向量形式的Q值函数,并在训练时使用不同偏好权重作为条件输入,学习出偏好到Q值的泛化映射,NSGA-II算法对动作所对应的多目标Q值向量进行非支配排序,并计算拥挤距离来确定最优动作; S4、将训练好的多目标强化学习模型生成的最优策略应用于实际拆解线中的任务分配。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人青岛理工大学,其通讯地址为:266033 山东省青岛市市北区抚顺路11号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。