北京大学深圳研究生院王荣刚获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京大学深圳研究生院申请的专利三维体积视频编码及生成方法、装置、设备及介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119728940B 。
龙图腾网通过国家知识产权局官网在2025-11-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411653608.4,技术领域涉及:H04N13/161;该发明授权三维体积视频编码及生成方法、装置、设备及介质是由王荣刚;汤路杨;杨佳宇;高文设计研发完成,并于2024-11-19向国家知识产权局提交的专利申请。
本三维体积视频编码及生成方法、装置、设备及介质在说明书摘要公布了:本申请公开了一种三维体积视频编码及生成方法、装置、电子设备及存储介质,涉及体积视频技术领域,包括:获取多视点视频中的关键多视点图像;根据关键多视点图像重建多视点视频的关键场景,并对关键场景编码得到关键场景的码流,以供解码得到关键场景表示模型;对预设变换缓存进行编码,得到非关键场景的码流,以供解码后结合上一时刻的场景表示模型,得到非关键场景表示模型;在遍历各非关键多视点图像后,基于关键场景表示模型和各非关键场景表示模型生成三维体积视频。本申请实现了快速、准确、高质量地生成三维体积视频的效果,显著提高了体积视频生成过程的数据处理效率,同时减少了数据传输量。
本发明授权三维体积视频编码及生成方法、装置、设备及介质在权利要求书中公布了:1.一种三维体积视频编码及生成方法,其特征在于,所述三维体积视频编码及生成方法包括: 获取由多相机拍摄的多视点视频,并确定所述多视点视频中起始时刻的关键多视点图像和后续多个时刻的非关键多视点图像; 根据所述关键多视点图像重建所述多视点视频的关键场景,并获取所述关键场景中各锚点的锚点属性; 通过预设场景压缩模型对各锚点属性进行量化,并对量化后的各锚点属性进行熵编码,得到所述关键场景的码流,以供解码得到所述多视点视频的关键场景表示模型; 对于任一非关键多视点图像,对预设变换缓存进行编码,得到所述非关键多视点图像所对应的非关键场景的码流,以供解码后结合上一时刻的场景表示模型,得到所述多视点视频的非关键场景表示模型; 在遍历各非关键多视点图像后,基于所述关键场景表示模型和各非关键场景表示模型生成三维体积视频; 所述预设变换缓存包括预设运动场、预设特征残差场和预设多层感知机MLP,所述对预设变换缓存进行编码,得到所述非关键多视点图像所对应的非关键场景的码流,以供解码后结合上一时刻的场景表示模型,得到所述多视点视频的非关键场景表示模型的步骤包括: 对所述预设运动场、所述预设特征残差场和所述预设多层感知机MLP进行编码,得到所述非关键场景的码流; 在对所述非关键场景的码流进行解码时,获取上一时刻多视点图像所对应的场景中各锚点的锚点坐标; 根据各锚点坐标对解码得到的运动场进行插值,得到各运动表征特征向量,并将所述各运动表征特征向量输入至解码得到的MLP,以通过所述MLP预测当前时刻各高斯点位置偏移量与上一时刻场景表示模型中的各高斯点位置偏移量之间的偏移量变化; 根据各锚点坐标对解码得到特征残差场进行插值,得到各特征残差表征特征向量,并将所述各特征残差表征特征向量输入至解码得到的MLP,以通过所述MLP预测当前各特征向量与上一时刻场景表示模型中的各特征向量之间的特征残差; 将各偏移量变化与上一时刻场景表示模型中对应的高斯点位置偏移量进行结合,且将各特征残差与上一时刻场景表示模型中对应的特征向量进行结合,得到所述非关键场景表示模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京大学深圳研究生院,其通讯地址为:518000 广东省深圳市南山区西丽街道深圳大学城北大园区H栋208室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励