Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国科学院重庆绿色智能技术研究院张帆获国家专利权

中国科学院重庆绿色智能技术研究院张帆获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国科学院重庆绿色智能技术研究院申请的专利一种支持多水下执行机构的无人船及其协同控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119472745B

龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411555144.3,技术领域涉及:G05D1/485;该发明授权一种支持多水下执行机构的无人船及其协同控制方法是由张帆;张学睿;尚明生;袁月;姚远设计研发完成,并于2024-11-04向国家知识产权局提交的专利申请。

一种支持多水下执行机构的无人船及其协同控制方法在说明书摘要公布了:本发明涉及一种支持多水下执行机构的无人船及其协同控制方法,属于人工智能、无人船领域。该系统由无人船、多个水下执行机构、线缆构成。该方法包含以下步骤:S1:初始化深度强化学习网络;S2:无人船到达作业区域释放水下执行机构;S3:无人船接收作业任务;S4:水下执行机构获取当前状态并反馈给无人船;S5:构造约束条件的奖励;S6:生成作业任务分配动作并下达给水下执行机构;S7:水下执行机构获取实时状态;S8:构造物理信息的奖励;S9:生成执行动作并通过执行装置执行;S10:重复步骤S3~S9,直到所有的作业任务完成。本发明方法能够实现了约束条件和物理信息的有机融合,解决了无监督的复杂环境下多水下执行机构的自动、优化、协同控制。

本发明授权一种支持多水下执行机构的无人船及其协同控制方法在权利要求书中公布了:1.一种支持多水下执行机构的无人船的协同控制方法,其特征在于,由一种支持多水下执行机构的无人船实现,所述的一种支持多水下执行机构的无人船由无人船1、多个水下执行机构2、线缆3构成;所述的无人船1和单个水下执行机构2通过线缆3连接实现通信和供电;所述的无人船1由船体11,以及安装在船体11上的动力系统12、定位模块13、图像传感器14、电源15、通信模块116和分布式中央处理单元117构成;所述的动力系统12、定位模块13、图像传感器14、通信模块116分别与分布式中央处理单元117相连;所述的电源15分别与动力系统12、定位模块13、图像传感器14、通信模块116、分布式中央处理单元117、线缆3相连,进行供电;所述的动力系统12为发动机;所述的定位模块包含GPS定位系统和北斗定位系统;所述的通信模块116包含有线通信模块和无线通信模块,其中有线通信模块与线缆3相连,无线通信模块与客户端相连;所述的分布式中央处理单元117为微处理器;任意一个所述的水下执行机构2由状态感知传感器21、执行装置22、通信模块223和分布式中央处理单元224构成;所述的状态感知传感器21、执行装置22、通信模块223分别与分布式中央处理单元224相连;所述的状态感知传感器21由惯性传感器、定位传感器、深度传感器、声纳、红外摄像头构成;所述的惯性传感器为陀螺仪;所述的通信模块223为有线通信模块,与线缆3相连;所述的执行装置22为电机驱动的用于行驶和作业的机构;所述的分布式中央处理单元224为微处理器; 具体地,该方法包括如下步骤: S1:初始化无人船1端的分布式中央处理单元117中的基于Actor-Critic框架的DDPG深度强化学习网络以及经验缓冲区ReplayBuffer以及水下执行机构2端的分布式中央处理单元224中的基于Actor-Critic框架的DDPG深度强化学习网络以及经验缓冲区; S2:无人船1接收客户端指令到达作业区域,并释放水下执行机构2; S3:无人船1接收客户端的作业任务,按照作业周期T下达任务给所有水下执行机构2; S4:每个作业周期T时刻,所有水下执行机构2通过状态感知传感器21获取当前状态,并反馈给无人船1端的分布式中央处理单元117; S5:根据当前状态、电源15用电量、任务等待时长的约束条件,构造约束条件的奖励; S6:无人船1端的分布式中央处理单元117中的基于Actor-Critic框架的DDPG深度强化学习网络生成作业任务分配动作并将指令下达给对应的水下执行机构2; S7:在一个作业周期T内,对应的水下执行机构2实时通过状态感知传感器21获取实时状态; S8:基于变分原理构造的水下执行机构2的最速路径以及障碍物距离,构造物理信息的奖励; S9:利用物理信息奖励,对应的水下执行机构2端的分布式中央处理单元224中的基于Actor-Critic框架的DDPG深度强化学习网络生成执行动作并通过执行装置22执行; S10:重复步骤S3~S9,直到所有的作业任务完成; 进一步,所述的基于Actor-Critic框架的DDPG深度强化学习网络采用马尔科夫决策过程MarkovDecisionProcess,简称MDP作为梯度策略,包含三元组S,A,R,其中,S为虚拟机的感知状态空间,A为虚拟机任务调度动作空间,R为奖励; 所述的无人船1端的分布式中央处理单元117中的基于Actor-Critic框架的DDPG深度强化学习网络由actor网络μs|θμ、critic网络Qs,a|θQ、actor目标网络μ′s|θμ′、critic目标网络Q′s,a|θQ′构成;其中:θ、θ、θμ′、θQ′分别为这四个网络的权重系数;s为所有水下执行机构2的当前状态;a为任务调度动作; 所述的水下执行机构2端的分布式中央处理单元224中的基于Actor-Critic框架的DDPG深度强化学习网络由actor网络critic网络actor目标网络critic目标网络构成;其中:分别为这四个网络的权重系数;为对应的水下执行机构2的实时状态;为执行动作; 所述的作业任务包含作业位置三维坐标以及作业内容; 步骤S3所述的当前状态为所有水下执行机构2的坐标位置,也是无人船1端的分布式中央处理单元117中的基于Actor-Critic框架的DDPG深度强化学习网络的状态; 步骤S5所述的约束条件的奖励为: 其中,J为水下执行机构2总数;I为上一个作业周期T的作业任务的总数,Tj为第j个水下执行机构2历史执行作业任务的平均等待时长,Dj为第j个水下执行机构2历史执行作业任务的单位时间用电量均值,α1、α2、α3为人为设定的超参数,Lij为第j个水下执行机构2作业周期执行作业任务i的行驶路程; 步骤S7所述的一个水下执行机构2实时通过状态感知传感器21获取的实时状态包含:定位传感器获取的水下执行机构2实时位置[x1,x2,x3],惯性传感器获取的水下执行机构2的实时速度[x1′,x2′,x3′]和实时加速度[x1″,x2″,x3″],声纳和红外摄像头探测的障碍物坐标其中j为障碍物数量; 步骤S8所述的物理信息的奖励为: 其中,β1、β2、β3为人为设定的超参数;为最速降线公式, 为引力场公式,为斥力场公式,为作业位置三维坐标。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院重庆绿色智能技术研究院,其通讯地址为:400714 重庆市北碚区水土街道方正大道266号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。