哈尔滨工业大学查富生获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉哈尔滨工业大学申请的专利基于直觉物理的任务导向机械臂抓取方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117984328B 。
龙图腾网通过国家知识产权局官网在2025-09-16发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202410334844.3,技术领域涉及:B25J9/16;该发明授权基于直觉物理的任务导向机械臂抓取方法是由查富生;程耀锋;刘晟凯;张腾;郭伟;王鹏飞;孙立宁设计研发完成,并于2024-03-22向国家知识产权局提交的专利申请。
本基于直觉物理的任务导向机械臂抓取方法在说明书摘要公布了:基于直觉物理的任务导向机械臂抓取方法,属于机器人人工智能领域。解决了采用现有机器人抓取方法进行物品抓取时,存在通用性差的问题。本发明将目标物品的彩图输入至实例分割网络,获取目标物品的掩模;利用目标物品的掩模提取目标物品点云P;将目标物品点云分别输入至训练后的任务无关抓取网络和训练后的任务直觉物理网络,获取满足几何关系的抓取位姿Gtag的可靠性得分Stag和满足几何关系的抓取位姿Gtag的任务操作得分Stog;选取可靠性得分Stag最高的N个值对应的抓取位姿Gtag,采用最远点采样法从所述N个值对应的抓取位姿Gtag中提取m个采样抓取位姿,从所述m个抓取位姿中选取任务操作得分Stog最小的抓取位姿作为最优抓取位姿。本发明适用于机械臂控制。
本发明授权基于直觉物理的任务导向机械臂抓取方法在权利要求书中公布了:1.基于直觉物理的任务导向机械臂抓取方法,其特征在于,包括: 步骤一、采集目标物品的彩图和深度图像,将所述目标物品的彩图输入至实例分割网络,获取目标物品的掩模; 利用目标物品的掩模,在目标物品的深度图像中提取目标物品点云P; 步骤二、将所述目标物品点云P输入至训练后的任务无关抓取网络,获取满足几何关系的抓取位姿Gtag的可靠性得分Stag; 将所述目标物品点云P输入至训练后的任务直觉物理网络,获取满足几何关系的抓取位姿Gtag的任务操作得分Stog; 步骤三、选取可靠性得分Stag最高的N个值对应的抓取位姿Gtag,采用最远点采样法从所述N个值对应的抓取位姿Gtag中提取m个采样抓取位姿,从所述m个采样抓取位姿中选取任务操作得分Stog最小的抓取位姿作为最优抓取位姿; 步骤二中,任务直觉物理网络具体训练过程为: 步骤二一、获取训练数据集,所述训练数据集包括目标物品点云P的采样点Ps,及所述采样点Ps对应的抓取力得分的真值Sgt; 步骤二二、将目标物品点云P的采样点Ps输入到任务直觉物理网络中,预测任务操作得分Stog; 步骤二三、采用平均损失函数计算预测任务操作得分Stog到抓取力得分的真值Sgt的损失值,利用损失值对任务直觉物理网络进行训练,重复步骤二二和步骤二三,直到训练次数达到迭代的阈值后,完成网络的训练; 步骤二一中,获取训练数据集的方法为: 在Isaacgym仿真环境中加入机械臂对不同物体抓取进行仿真,首先,将Isaacgym仿真环境中目标物品的深度图像转换为点云,采用最远点采样法获取n个采样点Ps,根据采样点位置,选用抓取姿态执行对应操作任务动作M,获取每个采样点每个抓取姿态执行时的抓取力最大值Fmax,将n个最大值Fmax归一化为[0,1]之间,获取n个采样点Ps抓取力得分的真值Sgt,获取训练数据集,其中n为正整数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学,其通讯地址为:150001 黑龙江省哈尔滨市南岗区西大直街92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励