武汉大学张乐飞获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉武汉大学申请的专利无监督域适应语义分割方法、装置、设备及可读存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116363363B 。
龙图腾网通过国家知识产权局官网在2025-11-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310287992.X,技术领域涉及:G06V10/26;该发明授权无监督域适应语义分割方法、装置、设备及可读存储介质是由张乐飞;邢聪颖设计研发完成,并于2023-03-22向国家知识产权局提交的专利申请。
本无监督域适应语义分割方法、装置、设备及可读存储介质在说明书摘要公布了:本发明提供一种无监督域适应语义分割方法、装置、设备及可读存储介质。该方法包括:计算源域图像的标签与学生网络输出的第一预测标签之间的交叉熵损失;计算融合图像的伪标签与学生网络输出的第二预测标签之间的一致性损失;计算学生网络的深度损失;计算交叉熵损失、一致性损失以及深度损失的梯度,反传梯度更新学生网络的参数,并使用指数滑动平均法更新教师网络的参数;循环更新学生网络和教师网络,当循环次数达到预设次数时,采用最新的教师网络对无标注的目标域图像进行语义分割预测,得到无标注的目标域图像的伪标签。通过本发明,在保证GPU合理占用内存的同时,得到包含细节分割的分割结果,提高了目标域中的分割性能。
本发明授权无监督域适应语义分割方法、装置、设备及可读存储介质在权利要求书中公布了:1.一种无监督域适应语义分割方法,其特征在于,所述无监督域适应语义分割方法包括: 将预处理后的源域图像输入学生网络,得到学生网络输出的第一预测标签,其中,所述第一预测标签基于包含长依赖的上下文信息语义预测图的标签与包含细节分割的语义预测图的标签进行融合得到; 计算源域图像的标签与所述第一预测标签之间的交叉熵损失; 对预处理后的源域图像和预处理后的目标域图像进行融合,将融合图像输入学生网络,得到学生网络输出的第二预测标签; 计算融合图像的伪标签与所述第二预测标签之间的一致性损失; 计算源域图像对应的第一深度信息伪标签与所述第一预测标签之间的第一深度损失,或,计算目标域图像对应的第二深度信息伪标签与所述第二预测标签之间的第二深度损失; 计算交叉熵损失、一致性损失以及第一深度损失或第二深度损失的梯度,反传梯度更新学生网络的参数,并使用指数滑动平均法更新教师网络的参数; 以新的预处理后的源域图像作为预处理后的源域图像,以新的预处理后的目标域图像作为预处理后的目标域图像,返回执行将预处理后的源域图像输入学生网络,计算学生网络输出的第一预测标签与源域图像的标签之间的交叉熵损失的步骤; 当循环次数达到预设次数时,采用最新的教师网络对无标注的目标域图像进行语义分割预测,得到无标注的目标域图像的伪标签; 所述计算源域图像的标签与所述第一预测标签之间的交叉熵损失的步骤,包括: 通过第一损失函数公式,计算得到学生网络输出的第一预测标签与源域图像的标签之间的交叉熵损失,其中,第一损失函数公式如下: 其中,代表源域图像的标签,代表第一预测标签,分别是高度、宽度以及通道数,C代表通道数,代表交叉熵损失; 所述计算源域图像对应的第一深度信息伪标签与所述第一预测标签之间的第一深度损失的步骤,包括: 利用源域图像对应的第一深度信息伪标签减去所述第一预测标签,得到差值; 将所述差值代入第二损失函数公式,得到源域图像对应的第一深度信息伪标签与所述第一预测标签之间的第一深度损失,其中,第二损失函数公式如下: 为常数。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉大学,其通讯地址为:430000 湖北省武汉市武昌区珞珈山;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励