Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 东莞理工学院任斌获国家专利权

东莞理工学院任斌获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉东莞理工学院申请的专利一种基于三维点云数据的自动驾驶感知方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120510181B

龙图腾网通过国家知识产权局官网在2026-04-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510401377.6,技术领域涉及:G06T7/246;该发明授权一种基于三维点云数据的自动驾驶感知方法是由任斌;吴锐铭;何春红设计研发完成,并于2025-03-31向国家知识产权局提交的专利申请。

一种基于三维点云数据的自动驾驶感知方法在说明书摘要公布了:本发明的一种基于三维点云数据的自动驾驶感知方法,包括:S1:获取三维点云数据;S2:三维点云数据处理并使用改进的PV‑RCNN++网络进行三维目标检测,其包括:S21.点云数据体素化;S22.采用可变形稀疏卷积处理体素数据;S23.将多尺度体素特征堆叠聚合生成特征图,并使用区域提议网络来生成候选区域;S24.在候选区域进行最远点采样;S25.通过体素集抽象模块和空间注意力机制,编码多尺度的体素特征;S26.使用感兴趣区域池化模块,对多尺度体素特征、点云鸟瞰图特征和关键点特征进行聚合;S27.对候选区域进行精细化处理;S3:通过深度学习网络计算目标的距离和速度;S4:通过卡尔曼滤波预测目标运动轨迹;S5:输出目标运动轨迹,从而提高自动驾驶对各类动态目标的检测与预测精度。

本发明授权一种基于三维点云数据的自动驾驶感知方法在权利要求书中公布了:1.一种基于三维点云数据的自动驾驶感知方法,其特征在于,其包括如下步骤: S1:通过自动驾驶车辆搭载的激光雷达获取周围环境的三维点云数据; S2:对激光雷达采集的三维点云数据进行处理,在车载边缘设备上使用改进的PV-RCNN++网络进行三维目标检测,该改进的PV-RCNN++网络采用点-体素的特征提取方法,该改进的PV-RCNN++网络包括如下子步骤: S21.对采集到的点云数据进行体素化,将稀疏的点云数据转化为一个适合卷积操作的结构; S22.采用可变形的稀疏卷积处理体素数据,提取体素中的特征; S23.将多尺度体素特征进行堆叠聚合‌生成鸟瞰特征图,并使用区域提议网络来生成包含目标的候选区域; S24.在候选区域的一定邻域内进行最远点采样,提取出目标的关键点; S25.通过体素集抽象模块和空间注意力机制,编码多尺度的体素特征,以捕获位置敏感信息; S26.使用感兴趣区域池化模块,对多尺度体素特征、点云鸟瞰图特征和关键点特征进行聚合; S27.对候选区域进行精细化处理,提高候选框的质量,生成最佳的三维目标预测框; S3:通过深度学习网络中获取到的目标关键点和目标预测框计算目标的距离和速度; S4:通过卡尔曼滤波预测目标的运动轨迹; S5:输出目标运动轨迹和相关信息到自动驾驶车辆的决策端和控制端; 在步骤S1中,激光雷达通过发射激光束并接收反射信号,能够测量出激光光束的返回时间,从而计算出每个激光点的空间坐标,最终形成一个获取周围环境的三维点云数据的图; 在步骤S2的子步骤S22中,所述可变形的稀疏卷积处理体素化数据的处理过程为: 假设步骤S21中体素化后的张量为,是输入张量中的元素,是卷积操作的输出,是卷积核的元素,m和n分别是卷积核的行和列索引,则卷积操作的输出可表示为: , 其中,和是与位置相关的偏移量,这些偏移量是通过改进的PV-RCNN++网络中的可学习参数获得的; 体素数据通过多层级的可变形稀疏卷积网络逐级下采样,最终输出多尺度稀疏体素特征图; 在步骤S2的子步骤S25中,所述空间注意力机制的处理过程为: 假设经过步骤S22中可变形稀疏卷积层后得到的特征图为,是输出通道数,是输出特征图的空间维度,则输出的空间注意力图可表示为: , , , , 其中表示平均池化操作,表示最大池化操作,表示在通道维度上将各分支的输出拼接起来,是一个的卷积核,用于生成空间注意力图,激活函数,确保输出的空间注意力图在范围内; 最后,将空间注意力图与输入特征图相加权, , 其中表示逐元素相乘,是加权后的输出特征图; 在步骤S3中,对步骤S2中获取到的关键点和预测框进行处理,首先提取预测框中的关键点,建立目标关键点坐标集,其中是预测框中包含关键点的数量,中心点坐标的计算公式为: , 其中,表示为第个关键点的坐标, 则目标的距离可以通过计算中心点到某一参考点的欧几里得距离来实现,假设参考点的坐标为,则目标的距离为: , 目标的速度通常通过连续帧之间的中心点位置变化来估计,假设我们有连续的两帧数据,在第帧和第帧分别获得目标的中心点坐标和,则目标的在三个方向上的变化量为: , 因此,目标在各个方向上的速度为: , 其中,是连续两帧之间的时间间隔, 目标的总速度是三个分量速度的合成,可以通过以下公式计算: ; 在步骤S4中,卡尔曼滤波利用目标的历史位置和速度信息来平滑和预测目标的运动轨迹,卡尔曼滤波包括预测步骤和更新步骤; 在预测步骤中,卡尔曼滤波使用目标的动态模型对目标状态进行预测,假设目标的状态包含位置和速度,则目标的状态向量表示为: , 其中,是目标在时刻的位置,是目标在时刻的速度,是目标在时刻的加速度, 目标的状态模型可以表示为: , 其中,是状态转移矩阵,是控制输入矩阵,是系统时刻的控制输入,是过程噪声, 预测的协方差矩阵更新为: , 其中,是过程噪声协方差矩阵,反映了模型的不确定性和噪声; 在更新步骤中,卡尔曼滤波根据实际的观测值来修正预测结果,假设在时刻观测到的目标位置为,则观测模型可以表示为: , 其中,是观测矩阵,是观测噪声, 根据观测数据和预测状态,卡尔曼滤波修正状态估计值,计算卡尔曼增益的公式为: , 其中,是观测噪声协方差矩阵, 同时更新状态估计和协方差矩阵 其中,是单位矩阵; 在所述步骤S5中,车载边缘设备对感知系统的结果进行整合并输出目标运动轨迹和相关信息到自动驾驶车辆的决策端和控制端。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东莞理工学院,其通讯地址为:523808 广东省东莞市松山湖科技产业园区大学路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。