Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 湖南大学孙长亮获国家专利权

湖南大学孙长亮获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉湖南大学申请的专利一种应用于智能驾驶的单目三维目标实时检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116645663B

龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310497747.1,技术领域涉及:G06V20/64;该发明授权一种应用于智能驾驶的单目三维目标实时检测方法是由孙长亮;刘宏立;吴晓闯设计研发完成,并于2023-05-06向国家知识产权局提交的专利申请。

一种应用于智能驾驶的单目三维目标实时检测方法在说明书摘要公布了:本发明提供一种新的基于单目视觉技术的智能驾驶实时三维目标识别方法,该方法能够在智能驾驶场景中通过对二维图像进行运算,回归图像中目标的关键点,并结合摄像头的几何参数,计算目标在物理坐标系下的三维位置。本发明能适用于智能驾驶场景,满足实时性、稳定性要求。

本发明授权一种应用于智能驾驶的单目三维目标实时检测方法在权利要求书中公布了:1.一种应用于智能驾驶的单目三维目标实时检测方法,其特征在于,包括: 步骤10:数据集准备; 步骤20:目标识别神经网络模型构建; 步骤30:目标识别神经网络模型训练; 步骤40:目标识别神经网络模型测试; 步骤10包括: 步骤11:图像采集;基于单目RGB摄像头,采集车辆行驶过程中的图像,并采用张正友标定法对进行摄像头进行标定,获得投影矩阵M,表示图像像素坐标与物理坐标系之间的坐标转换关系; 步骤12:图像标注;以车辆为目标,标注每张图像上的目标信息;目标信息包括:目标类别,目标二维矩形框位置目标车头方向dirg,目标头部或者尾部比例目标行驶方向orig、目标行驶方向比例目标三维尺寸目标类别包括5种:轿车、卡车、大巴车、三轮车、非机动车;目标车头方向包括2种:车头朝前、车头朝后;目标行驶方向包括3种:左、中、右; 步骤13:数据集划分,将所有经标注的图像构建数据集,并以一定比例划分为训练集、验证集; 步骤20包括: 目标识别神经网络模型包括特征提取网络模型和伪三维目标信息回归网络模型; 步骤21:特征提取网络模型构建;特征提取网络输入图像,采用19个卷积层,5个池化层对输入图像提取高维度特征,使用空间金字塔池化SPP结构融合多尺度特征,输出3个特征图用于检测,这3个特征图分别针对不同尺度的目标; 步骤22:伪3维目标信息回归网络模型构建;伪三维目标信息回归网络输入特征提取网络模型输出的3个特征图,对每个特征图采用5个卷积层回归目标的伪三维信息,对于每个特征图中的cell单元,输出对应的预测目标信息; 回归目标信息包括:预测目标类别label,预测目标矩形框偏置tx,ty,tw,th2d,预测目标矩形框置信度conf,预测目标车头方向dir,预测目标行驶方向oir,预测目标头部或者尾部比例rw,预测目标行驶方向比例rh,预测目标三维尺寸预测目标三维尺寸所属的3Danchors类别k; 其中,label、dir、oir、k采用one-hot编码; 目标矩形框回归采用2Danchors设计,通过对训练数据集中目标的矩形框宽和高使用k-means聚类,得到9组2Danchors超参数对于每个特征图中的cell单元位置xp,yp,所得的预测目标矩形框偏置tx,ty,tw,th2d与预测目标矩形框位置x,y,w,h'2d之间的关系为: 目标三维尺寸回归采用3Danchors设计,通过对训练数据集中目标三维尺寸使用k-means聚类,得到3组3Danchors超参数对于每个目标,所得的预测目标三维尺寸偏置与预测目标三维尺寸l,w,h'3d之间的关系为: 其中,k为预测目标三维尺寸所属的3Danchors类别; 步骤23:目标识别神经网络模型损失函数构建;各分项损失构建包括: 目标矩形框偏置预测采用均方差损失: 其中,K×K表示输出层分辨率;M表示2Danchors,每个输出层的cell单元对应有3个;为目标矩形框偏置真值,为预测目标矩形框偏置值,表示i,j位置是否为目标; 目标矩形框置信度预测采用二分类交叉熵损失: 其中,表示位置i,j是否为目标的真值,Cij表示位置i,j是否为目标的预测值; 目标类别预测采用多分类交叉熵损失: 其中,表示i,j位置为类别c的概率真值,pijc表示i,j位置为类别c的概率预测值,classes为类别集合; 目标车头方向预测采用二分类交叉熵损失: 其中,表示i,j位置车头是否朝前的真值,表示i,j位置车头是否朝前的预测值; 目标头部或者尾部比例预测采用均方误差损失: 其中,表示i,j位置车头或者车尾比例真值,表示i,j位置车头或者车尾比例预测值; 目标行驶方向预测采用多分类交叉熵损失: 其中,m表示目标所属的车辆行驶方向oir类别,表示i,j位置车辆行驶方向的真值,表示i,j位置车辆行驶方向的预测值; 目标行驶方向比例预测采用均方误差损失: 其中,表示i,j位置方向比例真值,表示i,j位置方向比例预测值; 目标三维尺寸所属类别预测采用多分类交叉熵损失: 其中,表示i,j位置属于3Danchors中第r个的概率真值,pijr表示i,j位置属于3Danchors中第r个的概率预测值; 目标三维尺寸偏置预测采用均方误差损失: 其中,表示i,j位置目标三维尺寸偏置真值,表示i,j位置目标三维尺寸偏置预测值; 目标识别神经网络模型的总损失为各分项损失的总和: loss3d_det =loss2d_box+lossconf+losslabel+lossdir+lossrw +lossori+lossrh+lossdim_class+lossdim_offset。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路1号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。