Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 积分商城 国际服务 IP管家助手 科技果 科技人才 商标交易 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 东南大学张涛获国家专利权

东南大学张涛获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉东南大学申请的专利一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115761667B

龙图腾网通过国家知识产权局官网在2026-03-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211383301.8,技术领域涉及:G06V20/56;该发明授权一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法是由张涛;肖伟民;刘晓晨设计研发完成,并于2022-11-07向国家知识产权局提交的专利申请。

一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法在说明书摘要公布了:一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法,涉及计算机视觉领域。由无人车采集图像,将图像进行预处理后,放入改进的FCOS网络模型中进行训练,训练过程中模型会对图像进行特征提取,预测,损失计算,参数更新,经多多次迭代后,可以得到训练完成的检测模型文件,经过模型转换后,就可以应用部署在无人车等终端设备上。本发明在特征提取的能力上更强,而且构建的两阶段模型在小目标上的检测效果更优,有效地提升了模型的识别准确率,改善了模型的漏检和误检。

本发明授权一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法在权利要求书中公布了:1.一种基于改进FCOS算法的无人车辆搭载摄像头目标检测方法,具体步骤如下,其特征在于: 1将摄像头安装在车辆的前端便于摄像头能拍到车辆前侧的位置;在车辆行驶的过程中,摄像头采集车辆行驶过程中的视频; 2对采集到视频流信息进行关键帧的截取,将截取出来的图像进行预处理,图像的预处理包括对重复图像的筛选,删除无目标的图像,还包括将所有图像进行标注,标注文件中包含图像的类别信息和目标的位置信息;将预处理后的图像划分为用于训练的预训练图像数据集、用于验证的验证图像数据集以及用于测试的测试图像数据集; 3搭建改进后的FCOS模型,对模型的训练参数进行设定,将步骤2中预处理后的图像用于参数设定完整的改进后的FCOS模型,进行模型的训练,在训练过程中,会对训练集中的图像进行特征提取,经多次迭代后,得到训练完成的检测模型; 步骤3所述的改进的FCOS网络训练模型在Pytorch环境下搭建,将步骤2中所得到训练集、验证集、测试集路径添加至模型配置文件中,并在改进的FCOS网络训练模型中设置相应参数; 在不同尺寸的特征图后添加通道空间注意力机制模块,使特征图在通道和空间两个方向加权平均,提升模型的精度;使用VargNet轻量主干网络减小模型的计算量,同时在原模型的基础上提出多分支结构,提升模型的特征表示能力,并采用重参的手段减小模型在推理时的计算量;在特征融合模块中加入BiFPN结构;将原始的FCOS检测模块中的卷积模块替换为深度可分离卷积模块,并在FCOS采样阶段加入提出的基于中心先验的采样方式和新的Centerness计算方式; 其中中心度分支的计算公式为: ; 其中iou是预测框和真实框之间的重叠面积,score是预测框的置信度得分; 在FCOS检测模块后加入refine模块,进一步提升模型的精度;改进后的FCOS网络模型包括骨干特征提取网络、特征融合模块、FCOSProposal模块、FCOSRefine模块; 所述骨干特征提取网络用VargNet网络,其使用可变的分组卷积来替换传统卷积,并且加入多分支结构和重参数化结构,可变分组卷积与深度可分离卷积类似,由两部分构成,第一个部分是可变组卷积部分,可变分组卷积不采用固定分组的形式,更有利于底层硬件的运行,第二部分是逐点卷积部分,用于保证通道数的匹配,多分支结构由多个3*3的卷积构成,提升模型的特征表征能力,模型推理时,重参数化将模型调整为单路径结构,保持模型性能的同时,减小模型的资源消耗; 特征融合模块采用BiFPN结构,该结构删除了只有一个输入的节点,简化了结构运算量;并且在输入和输出之间增加了连接通道,提升模型的特征融合性能;该模块同时使用了自顶向下和自底向上两种融合方式,同时增加了顶层的语义信息和底层的定位信息,大幅提升了模型的特征融合能力,该模块还考虑了不同尺寸特征图之间,对模型的贡献程度是不同的,所以对于不同尺寸的特征图,会给予不同的权重; FCOSRefine模块将FCOS的检测头作为第一阶段的候选框提取网络,在FCOS正负样本采样时,加入中心先验规则,针对真实框中心的位置,设置一定边长的正方形采样区域,仅针对采样区域内的样本进行正样本的采样,针对不同尺度的目标,设置一个边长的缩放系数对中心采样区域的控制,并使用新的中心度分支对样本质量评估,同时提出Refine模块进行第二阶段的特征提取和训练;在第一阶段和第二阶段之间,使用ROIAlign模块将候选框从特征图中选出,该模块没有坐标映射过程中的量化操作,采用双线性插值算法来计算目标位置的值,对于定位精度的提升明显; 4检查模型的效果,对最后保存的模型进行分析,查看模型是否发生过拟合或欠拟合现象,若发生过拟合或欠拟合现象,根据实验结果调整训练次数和超参数,得到合理的检测模型; 5设置得分阈值和IOU阈值,对模型的输出结果进行解码,根据设置的阈值对解码后的预测框做非极大值抑制处理,删除多余的目标框,最后输出目标检测结果; 在后处理阶段,会结合第一阶段候选框的置信度和第二阶段预测的分类置信度作为最后输出的分类置信度。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人东南大学,其通讯地址为:210096 江苏省南京市玄武区四牌楼2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。