浙江工业大学高飞获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉浙江工业大学申请的专利一种基于注意力机制的托盘位姿估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN117036654B 。
龙图腾网通过国家知识产权局官网在2025-08-22发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310809075.3,技术领域涉及:G06V10/10;该发明授权一种基于注意力机制的托盘位姿估计方法是由高飞;程爱玲;任海华;翁立波;程振波;张元鸣设计研发完成,并于2023-07-04向国家知识产权局提交的专利申请。
本一种基于注意力机制的托盘位姿估计方法在说明书摘要公布了:本发明公开一种基于注意力机制的托盘位姿估计方法,具体是一种面向移动叉车的托盘检测及方向估计方法,可用于引导叉车接近目标托盘。主要包括,采用RGB‑D深度相机采集托盘图像,采用含有注意力机制的实例分割方法进行托盘区域检测,获得托盘图像的掩模信息;并根据掩模信息以及二维图像与三维点云的对应关系提取托盘的点云数据;根据托盘点云数据,采用基于主成分分析的方法计算托盘前端面的法向量,从而获得托盘的相对于叉车的位姿;本发明采用含有注意力机制的实例分割方法,检测图像中的托盘区域,并分割出托盘的点云数据,提高了托盘分割的准确性和叉车引导的效率。
本发明授权一种基于注意力机制的托盘位姿估计方法在权利要求书中公布了:1.一种基于注意力机制的托盘位姿估计方法,其特征在于,包括如下步骤: 步骤1:数据采集,将RGB-D相机安装在叉车前端,获得图像I、点云集合S;以及图像I与点云集合S的对应集合IS;其中,图像I={ruv,guv,buv|u=1,2,...,H;v=1,2,...,W},W表示图像I的宽度,H表示图像I的高度,CH表示图像I的通道数,ruv,guv,buv表示图像I中第u行、第v列像素的R、G和B的值;点云集合S={xi,yi,zi|i=1,2,...,U},U表示点云集合S中的点的数目;对应集合IS={ui,vi|i=1,2,...,U},ui,vi表示点云集合S中第i个点对应图像I中第u行、第v列的像素; 步骤2:托盘分割,利用卷积神经网络对托盘样本图像进行训练,得到训练好的托盘检测网络模型MP,利用托盘检测网络模型MP提取托盘区域,实现托盘图像的分割,具体为: 步骤2.1:卷积神经网络的构建,在MaskR-CNN模型的基础上进行修改,包括主干网络的特征提取、含注意力机制的多尺度特征整合、区域建议网络、区域特征对齐、分支预测网络以及损失函数的设计; 步骤2.1.1:主干网络特征提取,采用标准的卷积神经网络ResNet作为主干网络进行特征提取,获得托盘特征C1; 步骤2.1.2:含注意力机制的多尺度特征整合,在FPN中添加注意力机制模块A获得多层次特征预测; 在FPN的自下而上的网络中,获得多层次的特征向量C2、C3、C4、C5;在FPN横向连接中添加注意力机制模块A;在FPN的自上而下的网络中,对特征C5、以及注意力机制模块的输出特征M4和M3进行上采样操作up,最终获得含注意力信息的中间特征向量M5,M4,M3,M2;在FPN的卷积融合中,对特征集合{M2,M3,M4,M5}中各特征向量分别进行conv卷积操作得到最终的预测,获得特征向量集合{P2,P3,P4,P5},分别对应于特征集合{C2,C3,C4,C5};其中,注意力机制模型A具体包括: 步骤2.1.2.1:注意力机制模块输入:以特征向量Ci与特征向量Mi+1时输入到注意力模块; 步骤2.1.2.2:对特征向量Ci与特征向量Mi+1进行拼接,获得特征向量AConv,如式1所示: AConv=concatCi,up2Mi+11 其中,concat·表示拼接函数,up2表示up上采样函数,AConv的大小为w*h*c1+c2;其中,c1表示Ci特征向量的通道数,c2表示特征向量Mi+1的通道数; 步骤2.1.2.3:对特征向量AConv进行conv_1卷积操作获得特征层AConv1,如式2所示: 其中,ωc2,1×1表示conv_1卷积操作函数,该卷积操作的核为1×1,通道数c为c2,AConv1的大小为w*h*c2; 步骤2.1.2.4:对特征AConv1进行分别进行ReLU函数、conv_2卷积函数和Sigmoid函数操作获得特征层Asig,如式3所示: ASig=σωc1,1×1ReLUAConv13 其中,ReLU·表示ReLU函数,ωc,1×1表示conv_2卷积操作函数,该卷积操作的核为1×1,通道数c为c1,σ·表示Sigmoid激活函数,则特征向量Asig的大小为w*h*c1; 步骤2.1.2.5:将Asig和Mi+1两个特征矩阵相乘,获得注意力模块的输出特征向量Mi,如式4所示: 其中,Mi特征大小为w×h,通道数为c1; 步骤2.1.2.6:对注意力模块的输出特征向量Mi进行conv的卷积操作,获得含注意力机制的AFPN网络的输出特征Pi,如式5所示: Pi=ωc,3×3Mi5 其中,ωc,3×3表示conv卷积操作函数,该卷积操作的核为3×3,通道数c为c1,Pi特征层的大小为w*h*c1; 步骤2.1.3:区域建议网络,根据特征输出Pi生成建议区域,进行特征提取; 步骤2.1.4:区域特征对齐网络,进行特征图不同点采样,并应用双线性插值获取尺寸为7*7的感兴趣区域; 步骤2.1.5:分支预测网络,获取边界区域信息、类别信息和掩膜集合B,B={buv|u=1,2,…,H,v=1,2,…,W},对于集合B中的任意元素buv表示图像I中第u行、第v列的像素是否为托盘区域,buv=1表示为托盘区域,否则为非托盘区域; 步骤2.1.6:损失函数的设计如式6所示: Loss=Lcls+Lbbox+Lmask6 其中,Lcls表示目标的分类损失值,Lbbox表示边界区域的回归损失值,Lmask表示掩模的损失值; 步骤2.2:卷积网络的训练,采用MSCOCO数据集对网络进行预训练,在预训练模型的基础上,利用所述的RGB-D相机采集的托盘图像构成数据集,在该数据集基础上进行迁移学习,得到托盘检测模型M,其中,训练工具为pytorch,优化器为SGD; 步骤2.3:托盘分割,对于输入卷积神经网络的任意图像I,获得输出的掩模图像B,根据图像I与点云数据集合S中的对应关系集合IS,获得托盘点云数据集合SS,具体步骤包括: 步骤2.3.1:遍历掩膜集合B中元素buv,对于满足buv=1的标识u和v记为u*和v*; 步骤2.3.2:遍历图像与点云对应关系集合IS,将集合IS中所有满足式7的元素i构成托盘点云标识集合并记作集合F={fj|j=1,2,...,V}; 其中,V表示集合F中元素个数,即托盘像素点的个数; 步骤2.3.3:遍历集合F和点云集合S,将集合S中所有满足式8的三元组xi,yi,zi构成托盘点云集合并记作SS={xk,yk,zk|k=1,2,...,K}; 其中,K表示托盘点云集合SS中点的数目; 步骤3:托盘位姿估计,采用主成分分析估计点云集合SS的法向量,并根据如式9计算托盘的具体位姿: 其中,xk∈SX、yk∈SY、zk∈SD、xk,yk,zk∈SS、SX={xk|i=1,2,...,K}、SY={yk|i=1,2,...,K}、SD={zk|i=1,2,...,K},SX、SY和SD是从点云集合SS中提取的x,y和z方向坐标值的集合,K表示点云集合SS中点的数目,V·代表基于主成分分析的法向量函数,d,l,s分别表示托盘前端面中心点相对于叉车的相对位置,θ表示托盘前端面相对于叉车的朝向姿态。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工业大学,其通讯地址为:310014 浙江省杭州市拱墅区潮王路18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。