Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 大连理工大学邱佳劲获国家专利权

大连理工大学邱佳劲获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉大连理工大学申请的专利一种基于视触觉融合的机器人抓取位姿优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119681901B

龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510126020.1,技术领域涉及:B25J9/16;该发明授权一种基于视触觉融合的机器人抓取位姿优化方法是由邱佳劲;杨鑫;王宇新;王元博设计研发完成,并于2025-01-27向国家知识产权局提交的专利申请。

一种基于视触觉融合的机器人抓取位姿优化方法在说明书摘要公布了:本发明提供一种基于视触觉融合的机器人抓取位姿优化方法,属于机器人抓取位姿估计领域。该方法首先基于视觉初始观测分割得到的目标物体稀疏点云预测一个初始抓取位姿,再由机器人规划执行此抓取获取物体表面的触觉数据,通过基于带有物体局部信息的触觉数据补全初始抓取位姿所在区域的目标物体点云信息,最后根据补全后的点云优化初始抓取位姿,以实现更稳定的机器人抓取。

本发明授权一种基于视触觉融合的机器人抓取位姿优化方法在权利要求书中公布了:1.一种基于视触觉融合的机器人抓取位姿优化方法,其特征在于,步骤如下: 步骤1、载入机器人视触觉信息采集与抓取训练测试环境; 步骤2、触觉局部点云预测模块训练; 步骤3、局部点云补全模块训练; 所述步骤3具体为: 局部点云补全模块基于PointNet++网络训练全局编码器与局部编码器,分别编码点云的全局特征与触觉局部特征;并在融合全局特征与触觉局部特征后,使用解码器解码得到补全点云; 在训练阶段,首先在视觉观测得到的稀疏点云上应用PointNetGPD算法生成抓取位姿,操作机器人执行抓取,采集触觉传感器数据并输入步骤2中的点云预测模块得到局部触觉点云;基于物体模型采样合成得到物体整体基准点云;使用全局编码器编码稀疏点云,得到全局特征;局部编码器编码触觉点云,得到触觉局部特征;为使模型注意力权重偏向触觉局部特征,通过加权融合模块完成全局特征与触觉局部特征的融合,之后使用MLP进行解码得到补全点云; 损失函数包括重建损失函数、特征一致性损失函数和局部结构损失函数;将上述损失函数加权相加后得到的整体损失函数; 重建损失函数根据基准点云与补全点云的平均最近平方距离计算得到,如式2所示; ; 特征一致性损失函数用于确保在稀疏点云与触觉点云中提取的特征具有一致性,设计PointNet++网络将输入点云编码为保留更多空间细节的高维特征与包含更多语义信息的低维特征;使用计算在触觉点云高维特征与稀疏点云高维特征的相似度,如式3所示;使用计算在触觉点云低维特征与稀疏点云低维特征的相似度,如式4所示,最小化、与单位矩阵的差异,确保提取的特征尽可能一致,如式5所示; ; ; ; 其中,表示L2范数,表示Frobenius范数, 局部结构损失函数使用KNN计算局部差异,在当前产生触觉感知的触觉传感器中心点位姿附近均匀选取N个坐标点作为中心点,在补全点云与基准点云中分别使用KNN采样得到点对、并计算距离,如式6所示; ; 其中表示KNN采样结果点集,表示每个中心的最近邻居数量,如式7所示; ; 整体损失函数如式8所示; ; 其中,调节权重,调节权重,调节权重; 步骤4、抓取位姿优化模块。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。