青岛哈尔滨工程大学创新发展中心;哈尔滨工程大学陈云赛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉青岛哈尔滨工程大学创新发展中心;哈尔滨工程大学申请的专利一种多刷船机器人协同作业路径规划方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120274765B 。
龙图腾网通过国家知识产权局官网在2025-09-02发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510766391.6,技术领域涉及:G01C21/20;该发明授权一种多刷船机器人协同作业路径规划方法是由陈云赛;陈子然;刘增凯;刘子然;刘文智;叶秀芬;张栋;姜清华;高永;李海波;施悦设计研发完成,并于2025-06-10向国家知识产权局提交的专利申请。
本一种多刷船机器人协同作业路径规划方法在说明书摘要公布了:本发明公开了一种多刷船机器人协同作业路径规划方法,属于机器人路径规划技术领域,其步骤为:对参数进行初始化,收集洗船机器人上搭载的传感器采集的实时数据;制定机器人群组优先级策略;采用网格轮廓法对船体表面进行栅格化处理;采用改进后的算法生成洗船机器人群组的初始路径;加入二叉树结构的约束树,进行路径规划;当某一节点前后节点连线上无障碍物时,删除路径的多余节点,只保留起止点和拐点,而后删除多余拐点提取关键节点作为中间目标点,输出最优路径方案。本发明的技术方案能够提高多刷船机器人协同工作效率,解决了复杂曲面环境下传统路径规划存在的动态避障响应滞后、多机协作效率低下等技术难题。
本发明授权一种多刷船机器人协同作业路径规划方法在权利要求书中公布了:1.一种多刷船机器人协同作业路径规划方法,其特征在于,包括以下步骤: 步骤1,对参数进行初始化,参数包括:船体表面地图信息、地形的障碍以及约束信息和洗船机器人起止点信息; 步骤2、收集洗船机器人上搭载的传感器采集的实时数据,传感器包括编码器、IMU以及温湿度传感器;编码器采集洗船机器人工作时的实时速度,IMU采集洗船机器人的位置坐标和姿态信息,温湿度传感器监测海水的温湿度变化; 步骤3、确定洗船机器人的数量,根据任务规模分配同类型机器人数量,制定机器人群组优先级策略,确保多机器人协作时路径无冲突; 步骤4、采用网格轮廓法对船体表面进行栅格化处理; 步骤5、采用改进后的算法生成洗船机器人群组的初始路径; 步骤6、加入二叉树结构的约束树,检测刷船机器人种群初始路径中各节点的解是否有冲突;检测到当前路径产生冲突,对每个冲突生成两个子节点分别添加约束,对优先级低的机器人重新规划受影响路径;直至所有路径无冲突且总代价最优时,算法终止; 步骤7、对路径进行平滑优化处理,遍历机器人路径上的所有节点,当某一节点前后节点连线上无障碍物时,删除路径的多余节点,只保留起止点和拐点,而后删除多余拐点提取关键节点作为中间目标点,输出最优路径方案; 所述步骤5包括以下子步骤: 步骤5.1、初始化生成集合OpenList和CloseList,OpenList存储所有待扩展节点,Closelist存储所有已扩展的节点,将开始节点插入OpenList; 步骤5.2、当OpenList不为空时,从OpenList中选取具有最低总代价的节点,第个节点的总代价总代价计算公式为: ; 其中,为从起点到当前点的实际路径代价,为从当前点到目标点的估计路径代价;采用Q-Learning算法优化,采用欧几里得距离公式,表达式为: ; 其中,为当前节点的坐标;为开始节点的坐标; 将具有最低总代价的节点从OpenList中删除,添加到CloseList中,并作为当前节点; 步骤5.3、如果当前节点是目标节点,回溯父节点生成路径,结束算法,如果当前节点不是目标节点,则进行下一步; 步骤5.4、找出当前节点的所有相邻节点,对于每个相邻节点,首先判断是否在CloseList中,若在CloseList中,则跳过该节点,若不在,则计算相邻节点的总代价;然后判断是否在OpenList中,若不在,将其添加到OpenList中,并更新相邻节点的总代价和父节点,若在,比较当前总代价和先前计算的总代价,如果当前总代价更小,则更新父节点,并且将相邻节点的总代价更新为; 步骤5.5、重新回到步骤5.2继续循环,直到找到目标节点; 所述步骤5.2中,采用Q-Learning算法优化,包括以下子步骤: 步骤5.2.1:初始化Q-Learning算法参数、环境中的障碍物信息、机器人数量信息以及起始点和目标点的坐标; 构建机器人路径规划的基础环境模型; 将作业区域离散化为均匀栅格,每个栅格标注为自由空间、障碍物或任务目标点; 机器人状态空间定义为二维坐标x,y及其周围3×3邻域内的障碍物分布; 定义机器人的动作空间,为对应机器人从当前网格单元向相邻的第个方向移动一步,对应八邻域移动方向集合,每个动作执行前需进行可行性验证:目标栅格需位于地图边界内且未被静态障碍物占据; 步骤5.2.2:采用R-Learning算法通过最大化奖励值和引入避碰奖惩机制来获得最优策略,具体为: 刷船机器人在当前状态s,在经过选择策略后执行动作a获得的总奖励由避碰奖励和步长奖励组成,表达式为: ; 其中,为稀疏奖励函数,表达式为: ; 为距离奖励函数,表达式为: ; 式中:为奖励系数,为目标起点到终点之间的欧式距离; 在训练过程中,Q值更新遵循贝尔曼最优方程,表达式为: ; 式中,、为第t次迭代与t+1次迭代时的状态;、分别为第t次迭代与t+1次迭代时的动作,和分别是学习率和折扣系数,取值范围为[0,1],为粒子在状态下执行动作所获得的即时奖励,是粒子在状态采取动作的期望Q值,是新状态下所有可能的行动的最大预期未来奖励; 步骤5.2.3:通过Q-Learning训练得到每个状态-动作对的Q值,遍历所有栅格节点,记录第个栅格节点的最大Q值,将最大Q值结果存入矩阵,矩阵的索引为节点坐标,值为节点对应的最大Q值;将训练完成的Q值嵌入算法,重构启发函数,其公式为: ; 式中:为从节点出发,选择最优动作能获得的最大Q值,Q值代表历史经验中的长期收益;为当前节点到目标节点的欧式距离,用于根据节点到目标的距离动态调整权重;参数为衰减系数,取值范围为[0.3,1]; 所述步骤6包括以下子步骤: 步骤6.1:基于冲突搜索机制建立二叉树形式的约束树,每个约束树节点N包括三个信息:约束集、问题的解、该节点解决问题的成本,约束集包含对问题中所有刷船机器人的约束; 步骤6.2:算法初始化阶段通过改进后的算法为每个刷船机器人生成无约束最优路径,形成初始解集; 步骤6.3:启动冲突检测机制,采用4元组的形式描述方法:一个冲突为一个4元组,表示和在时刻同时占用了节点; 步骤6.4:检测到冲突产生时,激活约束树的分支生成机制:针对冲突元组,将扩展生成两个子节点Nc1和Nc2,两个子节点继承父节点的全部约束和解; 步骤6.5:对节点Nc1添加一个新的约束,对于Nc2添加一个新的约束; 步骤6.6:根据约束对低优先级的刷船机器人进行局部路径规划,同时保持其他刷船机器人原有路径不变。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人青岛哈尔滨工程大学创新发展中心;哈尔滨工程大学,其通讯地址为:266000 山东省青岛市黄岛区三沙路1777号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。