Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 浙江工业大学鲍俊洁获国家专利权

浙江工业大学鲍俊洁获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉浙江工业大学申请的专利基于深度信息与随机Dropout的无监督视频插帧方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119342215B

龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411368317.0,技术领域涉及:H04N19/132;该发明授权基于深度信息与随机Dropout的无监督视频插帧方法是由鲍俊洁;黄国兴;卢为党;黄文泉;张清清;张昱设计研发完成,并于2024-09-29向国家知识产权局提交的专利申请。

基于深度信息与随机Dropout的无监督视频插帧方法在说明书摘要公布了:一种基于深度信息与随机Dropout的无监督视频插帧方法,包括以下步骤:步骤一、通过model产生预测帧It;步骤二、对训练model的训练集进行预处理;步骤三、通过model产生预测帧;步骤四、更新model的损失值计算;步骤五、通过得出的损失值对模型进行更新;步骤六、使用测试数据对训练好的model进行测试。本发明在专家模型添加Dropout层,来减少过拟合带来的影响;本发明还提出了引入深度信息来对物体的前后关系进行判断,解决物体遮挡引起的模糊问题,进一步提升了模型的预测效果。

本发明授权基于深度信息与随机Dropout的无监督视频插帧方法在权利要求书中公布了:1.一种基于深度信息与随机Dropout的无监督视频插帧方法,其特征在于,所述方法包括以下步骤: 步骤一、通过model产生预测帧:从待插帧的低帧率视频中提取两帧连续视频帧,输入后产生预测帧,model的作用为:输入两帧的图像,,输出两帧间任意时间的插帧,表示为: 1 其中,表示训练的模型model; 步骤二、对训练model的训练集进行预处理,输入高帧率训练集TRAIN_DATA,训练集插帧数num_interp,输出低帧率训练集TRAIN_LOADER; 步骤三、通过model产生预测帧,将TRAIN_LOADER中的一组数据输入至待训练的model,输出预测帧; 步骤四、更新model的损失值计算; 步骤五、通过得出的损失值对模型进行更新:模型的更新采用梯度更新的方式,优化器为Adam,每训练一幕数据就调用optimizer.step来进行参数更新;将所有训练的视频帧训练一次算作一个周期,求取一个周期中每一幕的训练损失值的总和epoch_loss,该值作为进行学习率的更新的依据,更新的方式采用ReduceLROnPlateau,当学习率小于1e-7时结束训练,并保存此时的model; 步骤六、使用测试数据对训练好的model进行测试; 所述步骤一的过程如下: 步骤1.1:通过神经网络model获取输入视频帧的光流及视域地图,在光流映射模块中表示的是使用光流和对输入帧进行映射,光流通过U-net1产生的两帧之间的光流来进行近似估计; 假设光流的变化是平滑的,通过视频帧间的光流实线预测光流虚线,使用式2进行估计: 2 其中,表示像素由T=0变换到T=1的光流,表示像素由T=1变换到T=0的光流,表示像素由T=t变换到T=0的光流,表示像素由T=t变换到T=1的光流; 视域地图只通过网络生成一个,另一个由式3直接生成,将结果输入到合成预测帧模块产生预测帧,预测帧的产生实现如式4; 3 4 其中,表示视域地图,表示归一化因子; 步骤1.2:使用深度信息对视域地图进行修正并合成预测帧; 输入的前后两帧数据为和,产生的预测帧为,将前后两帧数据,即和放预训练的网络后,获得各自的深度,通过式5对结果进行归一化处理得到归一化处理后的深度depth,通过式6将前后两帧数据的depth相减得到两帧的深度差值dif,当两帧的深度出现变化时,就表示在区域出现了遮挡,通过该深度差值来对视域地图进行修改, 5 6 其中,表示归一化处理后的深度,表示归一化处理后的深度; 通过式7,使dif较小时直接将值置零,通过式8对dif进行进一步处理, 7 8 其中,sigmoid为一个激活函数,其输出∈0,1; 采用视域地图对式4进行修正,将修正系数引入合成预测帧模块即将式4修改为式9 9; 所述步骤四的过程如下:利用产生的预测帧进行损失值的计算损失值的计算由五部分组成,其定义如式13 13 、、、、分别表示损失值的相关参数,表示循环重建帧与真实值间的差距,其定义如式式14,表示隐藏的中间帧与伪中间帧的接近程度,其定义如式15,表示感知损失的大小,它用VGG-16模型的conv4-3特征表示,其定义如式16所示,表示帧按照预测的光流进行变化后的产生的损失,其定义如式17,表示光流变化的快慢,用以强制进行平滑度约束,其定义如式18, 14 15 其中,表示专家模型,是SuperSloMo模型通过大量高帧率视频有监督地训练出来的; 16 17 18 损失函数的大小由和决定,通过循环一致性的方法进行损失值的计算,引入了来进行指导,并引入了Dropout来增强模型训练的泛化能力。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人浙江工业大学,其通讯地址为:310014 浙江省杭州市拱墅区朝晖六区潮王路18号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。