Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 哈尔滨工程大学项学智获国家专利权

哈尔滨工程大学项学智获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉哈尔滨工程大学申请的专利基于Swin-Transformer和CNN并行网络的自监督单目深度估计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115731280B

龙图腾网通过国家知识产权局官网在2025-07-11发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211467771.2,技术领域涉及:G06T7/55;该发明授权基于Swin-Transformer和CNN并行网络的自监督单目深度估计方法是由项学智;李伟;吕宁;乔玉龙设计研发完成,并于2022-11-22向国家知识产权局提交的专利申请。

基于Swin-Transformer和CNN并行网络的自监督单目深度估计方法在说明书摘要公布了:本发明提供一种基于Swin‑Transformer和CNN并行网络的自监督单目深度估计方法,目的在于提出一种基于Swin‑Transformer和卷积神经网络CNN并行网络的自监督单目深度估计方法。本发明将Swin‑Transformer和CNN同时用于特征提取,并将提取的特征进行融合,可以使网络在建立长程相关性和保留空间结构信息之间进行平衡,强化网络学习特征的能力,并且结合本发明提出的逐尺度自蒸馏损失,进行网络的自监督训练,进而提升自监督单目深度估计精度。

本发明授权基于Swin-Transformer和CNN并行网络的自监督单目深度估计方法在权利要求书中公布了:1.基于Swin-Transformer和CNN并行网络的自监督单目深度估计方法,其特征在于,步骤如下: 步骤一:使用单目像机进行拍摄并进行处理后得到一系列分辨率为H*W,长度为N的图像序列; 步骤二:在步骤一的图像序列中选取一帧图像It作为Swin-Transformer和卷积神经网络并行结构的深度网络的输入,输出为不同尺度的深度图Di,将It和相邻帧图像It-1在通道维度上进行拼接后作为纯卷积神经网络结构的位姿网络的输入,输出两帧图像的相对位姿Tt→t-1; 步骤三:基于步骤二中深度网络最终输出的深度图D0和位姿网络输出的相对位姿Tt→t-1进行输入图像It的视图重建得到重建图像I′t,计算单尺度图像重建损失Lrc;基于步骤二中深度网络输出的不同分辨率的深度图Di计算逐尺度自蒸馏损失Lesd和边缘平滑损失Ls; 步骤四:基于单尺度图像重建损失Lrc、逐尺度自蒸馏损失Lesd和边缘平滑损失Ls构造深度网络和位姿网络的整体损失函数Ltotal,使用单目视频进行网络的自监督训练,直至整体损失函数Ltotal收敛;得到训练好的深度网络; 步骤五:将单张图像输入到训练好的深度网络中,网络输出与输入图像分辨率大小相同的深度图D0,将深度图D0作为输入图像的单目深度估计结果。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工程大学,其通讯地址为:150001 黑龙江省哈尔滨市南岗区南通大街145号哈尔滨工程大学科技处知识产权办公室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。