Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 广州大学魏巍获国家专利权

广州大学魏巍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉广州大学申请的专利基于语义特征融合的实时双目深度估计方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116630391B

龙图腾网通过国家知识产权局官网在2026-03-24发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310605350.X,技术领域涉及:G06T7/564;该发明授权基于语义特征融合的实时双目深度估计方法及装置是由魏巍;姚博文设计研发完成,并于2023-05-25向国家知识产权局提交的专利申请。

基于语义特征融合的实时双目深度估计方法及装置在说明书摘要公布了:本发明公开了一种基于语义特征融合的实时双目深度估计方法、系统及装置,包括:获取14和18分辨率的特征图;获取第二个14分辨率的特征图;采用边缘理解模块提取初始图像的14分辨率的边缘语义信息;基于第二个14分辨率的特征图和初始图像的14分辨率的边缘语义信息得到多通道代价量;基于多通道代价量得到14融合代价量;基于14融合代价量得到最终视差图;计算网络语义分割的BCE损失和视差预测的SmoothL1损失,并使用Adam优化方法优化网络模型;根据初始图像图像的相机参数以及网络模型得到的最终视差图计算深度图。可以实现基于语义特征融合的实时双目深度估计,不会丢失边缘语义信息。

本发明授权基于语义特征融合的实时双目深度估计方法及装置在权利要求书中公布了:1.一种基于语义特征融合的实时双目深度估计方法,其特征在于,包括: 步骤a:获取14和18分辨率的特征图; 步骤b:采用反卷积对18分辨率的特征图进行上采样,并使用多分支残差卷积滤波,得到第二个14分辨率的特征图; 步骤c:采用边缘理解模块提取初始图像的14分辨率的边缘语义信息; 步骤d:基于第二个14分辨率的特征图和初始图像的14分辨率的边缘语义信息得到多通道代价量; 所述步骤d具体包括:将初始图像的14分辨率的边缘语义信息和第二个14分辨率的特征图按照通道维度拼接,拼接后采用一层线性层滤波,并使用滤波后的左右特征图构建多通道代价量; 所述多通道代价量具体包括: 计算公式如下: ; 其中代表计算L2距离,和分别代表滤波后的左特征图和右特征图中的像素特征,x和y分别代表特征图中的水平和垂直坐标,n为场景中物体的类别,m为视差能级的个数; 步骤e:基于多通道代价量得到14融合代价量; 所述步骤e具体包括:将多通道代价量使用下采样3D卷积和不对称3D卷积块下采样并聚合代价,得到18分辨率的代价量;使用语义特征融合模块将18分辨率的特征图的语义特征融合到18分辨率的代价量中;接着使用反3D卷积核和不对称3D卷积上采样并聚合代价,得到14分辨率的代价量;再使用语义特征融合模块将14分辨率的特征图的语义特征融合到14分辨率的代价量得到14融合代价量; 步骤f:基于14融合代价量得到最终视差图; 步骤g:分别计算网络语义分割的BCE损失和视差预测的SmoothL1损失,并使用Adam优化方法优化网络模型; 步骤h:完成网络训练后,根据初始图像的相机参数以及网络模型得到的最终视差图计算深度图。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广州大学,其通讯地址为:510006 广东省广州市番禺区小谷围街道大学城外环西路230号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。