吉首大学刘文浩获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉吉首大学申请的专利一种基于YOLOv8标注的目标物体精细化三维重建方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119494923B 。
龙图腾网通过国家知识产权局官网在2025-11-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411546976.9,技术领域涉及:G06T17/00;该发明授权一种基于YOLOv8标注的目标物体精细化三维重建方法是由刘文浩;丁雷设计研发完成,并于2024-11-01向国家知识产权局提交的专利申请。
本一种基于YOLOv8标注的目标物体精细化三维重建方法在说明书摘要公布了:本发明公开一种基于YOLOv8标注的目标物体精细化三维重建方法,包括以下步骤:构建YOLOv8标注模型,通过YOLOv8标注模型对目标物体进行边界标注,识别无遮挡区域和目标区域;构建第一HashNeRF模型,输入多个视角的图像数据,通过第一HashNeRF模型进行目标物体的全局三维重建,输出各视角的颜色图和深度图;基于YOLOv8标注模型识别的目标区域的二维坐标和第一HashNeRF模型输出的深度图,进行目标区域的坐标转换;构建第二HashNeRF模型,通过第二HashNeRF模型对目标区域进行不同视角下的精细化重建,根据不同视角的深度图识别遮挡区域,完成目标区域的高精度复原及目标物体的三维重建。本发明解决现有通过NeRF技术进行三维场景重建中遮挡区域重建精度不足以及多视角目标区域一致性差的技术问题。
本发明授权一种基于YOLOv8标注的目标物体精细化三维重建方法在权利要求书中公布了:1.一种基于YOLOv8标注的目标物体精细化三维重建方法,其特征在于,包括以下步骤: S1、构建YOLOv8标注模型,并通过YOLOv8标注模型对目标物体进行边界标注,识别无遮挡区域和目标区域; S2、构建第一HashNeRF模型,输入多个视角的图像数据,通过第一HashNeRF模型进行目标物体的全局三维重建,并输出各视角的颜色图和深度图;具体为: S21、输入多个视角图像的三维空间坐标和视角方向,使用哈希编码将三维空间坐标映射至高维特征空间; S22、根据哈希表的特征将不同分辨率的编码结果进行三维线性插值与拼接,形成包含场景的全局和局部信息的特征向量; S23、基于拼接后的特征向量,通过多层感知机从高维的编码空间提取场景的密度和颜色信息,根据场景的密度和颜色信息计算每条射线在场景中的最终颜色值; S24、构建损失函数,通过反向传播优化第一HashNeRF模型的网络权重,实现对目标物体的全局三维重建,并输出各视角的颜色图和深度图; S3、基于YOLOv8标注模型识别的目标区域的二维坐标和第一HashNeRF模型输出的深度图,进行目标区域的坐标转换;具体为: 根据第一HashNeRF模型输出的各视角深度图,获取当前视角下的深度值; 根据YOLOv8标注模型标注的目标区域的二维坐标以及对应视角下的深度值,计算目标区域的三维点; 根据当前视角相机位姿将目标区域的三维点转换为世界坐标系下的三维点; 将世界坐标系下的三维点转换为新视角的相机坐标系下的三维坐标,并将相机坐标系下的三维坐标投影到二维图像平面,得到目标区域在新视角下的二维坐标; S4、构建第二HashNeRF模型,通过第二HashNeRF模型对坐标转换后的目标区域进行不同视角下的精细化重建,并根据不同视角的深度图识别遮挡区域,从而完成目标区域的高精度复原以及目标物体的三维重建; 所述通过第二HashNeRF模型对坐标转换后的目标区域进行不同视角下的精细化重建,具体为:输入新视角下的视角位姿,以及目标区域在新视角下的二维坐标,通过第二HashNeRF模型生成新视角下的位置坐标的颜色图和深度图; 所述根据不同视角的深度图识别遮挡区域,具体为: 当切换至不同视角时,通过第一HashNeRF模型生成该视角下目标物体的全局视图,并获取切换视角下的深度信息; 将YOLOv8标注模型标注的目标区域的三维坐标通过坐标转换映射至切换视角下,得到切换视角下的目标区域; 通过第二HashNeRF模型实现对切换视角下目标区域的精细重建,也即进行遮挡区域高精度识别与复原,渲染出高精度的目标区域细节。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人吉首大学,其通讯地址为:416000 湖南省张家界市吉首大学张家界校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励