复旦大学付彦伟获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉复旦大学申请的专利一种用于多场景环境下的目标驱动移动抓取控制方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119427349B 。
龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411502418.2,技术领域涉及:B25J9/16;该发明授权一种用于多场景环境下的目标驱动移动抓取控制方法是由付彦伟;王天宇;侯佳伟;薛向阳设计研发完成,并于2024-10-25向国家知识产权局提交的专利申请。
本一种用于多场景环境下的目标驱动移动抓取控制方法在说明书摘要公布了:本发明涉及一种用于多场景环境下的目标驱动移动抓取控制方法,包括:输入多子场景的RGB‑D采样序列,利用带语义的稀疏3D点云来初始化整个场景的3D高斯模型;通过查询粗粒度高斯获取目标的近似位姿,导航移动底盘接近目标,将对目标进行位姿估计的范围缩小到相应子场景;在移动过程中,采用基于扩散的深度补全优化细粒度高斯,获得目标的精确位姿;针对细粒度高斯模型进行高斯编辑,通过高斯修复以得到机器人操作终点位姿;根据机器人操作起点位姿和操作终点位姿,控制机器人机械臂完成相应动作。与现有技术相比,本发明结合粗略的场景先验和精细的位姿估计,能实现高效、精准的多场景移动抓取控制,确保机器人能够在复杂多场景环境中准确执行任务。
本发明授权一种用于多场景环境下的目标驱动移动抓取控制方法在权利要求书中公布了:1.一种用于多场景环境下的目标驱动移动抓取控制方法,其特征在于,包括以下步骤: S1、输入多子场景的RGB-D采样序列,利用带语义的稀疏3D点云来初始化整个场景的3D高斯模型,即为粗粒度高斯模型,具体是针对多子场景的RGB-D采样序列,基于相机位姿来重建整个场景的粗糙高级表达,以得到3D高斯模型; S2、从粗粒度高斯模型中查询获得目标物体第一深度信息,输入预先构建的位姿估计网络模型,输出得到目标物体的近似位姿; 基于目标物体的近似位姿,控制机器人的移动底盘发生移动以接近目标物体; 所述位姿估计网络模型的构建过程包括:构建仿真合成数据集,基于构建得到的数据进行仿真到真实的位姿估计网络模型训练; 所述位姿估计网络模型的工作过程包括: 首先,输入一幅待处理的RGB图像和深度图像,即RGB-D序列,并进行预处理操作; 然后,将RGB-D序列输入到预训练的Grounded-Light-HQSAM模型中,获取目标物体的检测框和标签; 接着,将Grounded-Light-HQSAM模型输出的特征输入到MVPoseNet6D模型中,进行6自由度的目标位姿估计; 最后,MVPoseNet6D模型利用多视图的合成数据进行训练,从不同视角捕捉目标物体的位姿,并生成精确的目标物体位姿和3D尺寸信息; S3、在机器人移动过程中,采用基于扩散的深度补全技术,针对粗粒度高斯模型进行优化处理,得到细粒度高斯模型,具体是通过隐式扩散模型增强深度信息,以对粗粒度高斯模型进行高斯表达补全,得到细粒度高斯模型; S4、从细粒度高斯模型中查询获得目标物体第二深度信息,输入预先构建的位姿估计网络模型,输出得到目标物体的精确位姿,即为机器人操作起点位姿; S5、针对细粒度高斯模型进行高斯编辑,将局部场景编辑后的物体操作终点对应深度信息输入预先构建的位姿估计网络模型,得到机器人操作终点位姿; S6、根据机器人操作起点位姿和机器人操作终点位姿,控制机器人机械臂完成相应动作。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人复旦大学,其通讯地址为:200433 上海市杨浦区邯郸路220号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励