北京理工大学;北京海泰微纳科技发展有限公司张振海获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京理工大学;北京海泰微纳科技发展有限公司申请的专利基于BP神经网络的双目相机与激光雷达空间外参标定方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116071434B 。
龙图腾网通过国家知识产权局官网在2026-01-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310038976.7,技术领域涉及:G06T7/80;该发明授权基于BP神经网络的双目相机与激光雷达空间外参标定方法是由张振海;韩季洲;胡学海;王州博;李靖宇;刘石豪;朱炜;邓宏彬;何光;张振山;康晓设计研发完成,并于2023-01-13向国家知识产权局提交的专利申请。
本基于BP神经网络的双目相机与激光雷达空间外参标定方法在说明书摘要公布了:本发明公开的一种基于BP神经网络的双目相机与激光雷达空间外参标定方法,属于传感器标定领域。本发明实现方法为:通过激光雷达和已知内参的双目相机同步在不同的位置上采集N组标定板的左、右图像信息和点云信息。分别提取左、右图像中标定板的角点,解算出标定板中心点在左像素坐标系下的坐标参数。对激光雷达获得的点云数据进行分割和滤波处理,解算出标定板中心点在激光雷达坐标系下的坐标参数;通过构建网络的损失函数优化BP神经网络模型;对BP神经网络模型进行迭代训练,获取得到激光雷达与双目相机的外参参数的估计结果;将根据基线长度误差配合重投影误差引入作为评价指标,提升对标定结果评价的准确性和有效性。
本发明授权基于BP神经网络的双目相机与激光雷达空间外参标定方法在权利要求书中公布了:1.一种基于BP神经网络的双目相机与激光雷达空间外参标定方法,其特征在于:包括以下步骤, S1.设置激光雷达、双目相机和棋盘格标定板;通过激光雷达和已知内参的双目相机同步在不同的位置上采集N组标定板的左、右图像信息和点云信息;N组数据包含N个标定板中心点P={P1,P2,...Pn,...,PN},Pn点表示第n组的标定板中心点;N组数据包含N组标定板角点C={C1,C2,...Cn,...,CN},Cn表示第n组的标定板角点,第n组共有X个角点Cn={Cn1,Cn2,...Cnx,...,CnX}; S2.提取左图像中标定板的角点,获得N组标定板中心点P在左像素坐标系下的坐标ul,vl;提取右图像中标定板的角点,获得N组标定板中心点P在右像素坐标系下的坐标ur,vr;使用PnP方法和坐标系转换解算出N组标定板中心点P在左相机坐标系下的坐标xCl,yCl,zCl和在右相机坐标系下的坐标xCr,yCr,zCr; S3.利用激光雷达获取标定板的点云数据;对每组数据使用直通滤波去除无关的点云,只保留有效的标定板点云;根据所述有效的标定板点云,使用随机采样一致方法拟合标定板所在的平面,将标定板的点云投影到该平面上形成一个新的点云;拟合新标定板点云的四个边的空间方程,找到所述四个边的交点,所述四个边的交点构成四边形,通过几何关系求解所述四边形两条对角线的交点,所述交点即为该组数据标定板中心点Pn在激光雷达坐标系下的坐标,进而得到N组标定板中心点P在激光雷达坐标系下的坐标xL,yL,zL; S4.定义左相机坐标系、右相机坐标系和激光雷达坐标系;定义激光雷达坐标系相对于左相机坐标系旋转所用的欧拉角及平移向量,并通过上述欧拉角及平移向量表示激光雷达坐标系相对于左相机坐标系外参矩阵所述外参矩阵即激光雷达与左相机的空间外参;定义激光雷达坐标系相对于右相机坐标系旋转所用的欧拉角及平移向量,并通过上述欧拉角及平移向量表示激光雷达坐标系相对于右相机坐标系外参矩阵所述外参矩阵即激光雷达与右相机的空间外参; 步骤S4实现方法为, 在激光雷达坐标系到左和右相机坐标系的变换过程中会涉及到3个坐标系,分别是左相机坐标系、右相机坐标系和激光雷达坐标系;激光雷达采集的点云是激光雷达坐标系下的点,需要经过旋转平移变换将点云转换为相机坐标系下的点; 对于激光雷达坐标系相对于左相机坐标系的旋转和平移分别可以通过旋转矩阵和平移向量表示;是3x3的向量,txl,tyl,tzl三个元素相互独立; 是3x3的矩阵,但是其中9个元素并不相互独立,使用欧拉角表示的方式来对上述9个元素进行解耦;将旋转矩阵表达为3个相互独立欧拉角形式的方法对9个变量进行解耦,减少变量,简化BP神经网络结构;通过欧拉角将旋转矩阵转化为以下形式: 由φl,θl,ψl,txl,tyl,tzl六个参数可以表示一个外参矩阵外参矩阵用来在激光雷达坐标系与左相机坐标系之间转换三维点,即激光雷达与左相机的空间外参; 对于激光雷达坐标系相对于右相机坐标系的旋转和平移分别可以通过旋转矩阵和平移向量表示;是3x3的向量,txr,tyr,tzr三个元素相互独立; 是3x3的矩阵,但是其中9个元素并不相互独立,使用欧拉角表示的方式来对上述9个元素进行解耦;通过将旋转矩阵表达为3个相互独立欧拉角的形式,减少变量,简化BP神经网络结构;将旋转矩阵表达为3个相互独立欧拉角形式的方法9个变量进行解耦,减少变量,进一步简化BP神经网络结构;通过欧拉角将旋转矩阵转化为以下形式: 由φr,θr,ψr,txr,tyr,tzr六个参数可以表示一个外参矩阵外参矩阵用来在激光雷达坐标系与左相机坐标系之间转换三维点,即激光雷达与右相机的空间外参; S5.引入基线长度误差重投影误差和标定板中心点在相机坐标系下空间投影误差并构建BP神经网络模型和损失函数:BP神经网络模型包括3层结构:分别为输入层、中间隐含层以及输出层;输入层含3个神经元,隐含层含6个神经元和6个偏置,输出层含5个神经元;输入层为标定板中心点在激光雷达坐标系下的坐标值,隐含层得到的是模型计算出标定板中心点在左相机坐标系下的坐标值xClP,yClP,zClP和模型计算出标定板中心点在右相机坐标系下的坐标值xCrP,yCrP,zCrP,输出层为模型计算出标定板中心点在左像素坐标系下的坐标ulP,vlP、模型计算出标定板中心点在右像素坐标系下的坐标urP,vrP和计算得到的基线长度BaselineP;引入基线长度误差重投影误差和标定板中心点在相机坐标系下空间投影误差BaselineT为双目相机基线的实际长度,xClP,yClP,zClP为标定板中心点在左相机坐标系下的坐标值,xCrP,yCrP,zCrP为标定板中心点在右相机坐标系下的坐标值,ur,vr为标定板中心点在左像素坐标系下的坐标,ur,vr为标定板中心点在右像素坐标系下的坐标;通过3个比例系数α,β,χ构建包含所述基线长度误差、重投影误差和标定板中心点在相机坐标系下空间投影误差的损失函数在BP神经网络中,通过隐含层向输入层同步反向传播中引入损失函数,通过损失函数中基线长度误差同步反向传播减小基线长度误差,且能够减小重投影误差;通过损失函数中重投影误差同步反向传播进一步消除重投影误差;即通过隐含层向输入层同步反向传播中引入损失函数提高双目相机与激光雷达空间外参标定的精度;通过将所述损失函数在隐含层构建左、右相机的映射关系,利用所述损失函数在隐含层构建左、右相机的映射关系的融合使双目相机数据与激光雷达数据同步训练,提高训练效率和空间外参标定精度; S6.配置网络训练所需参数并训练;设置学习率、批处理大小、权值初始化方式、权值衰减系数、最大迭代次数及损失函数目标大小;将N组标定板中心点P在激光雷达坐标系下的坐标xL,yL,zL,在左、右相机坐标系下的坐标,在左、右像素坐标系下的坐标输入改进的BP神经网络中进行训练;训练更新权值,当损失函数满足条件后获得:激光雷达坐标系到左相机坐标系的外参矩阵和激光雷达光雷达坐标系到右相机坐标系的外参矩阵即基于BP神经网络实现双目相机与激光雷达空间外参标定。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京理工大学;北京海泰微纳科技发展有限公司,其通讯地址为:100081 北京市海淀区中关村南大街5号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励