Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京交通大学郎丛妍获国家专利权

北京交通大学郎丛妍获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京交通大学申请的专利一种基于图匹配的域自适应目标检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116912480B

龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310750797.6,技术领域涉及:G06V10/25;该发明授权一种基于图匹配的域自适应目标检测方法是由郎丛妍;史浩;陈乃月;李浥东设计研发完成,并于2023-06-25向国家知识产权局提交的专利申请。

一种基于图匹配的域自适应目标检测方法在说明书摘要公布了:本发明公开了一种基于图匹配的域自适应目标检测方法。本发明方法获取源域和目标域数据后,通过特征提取网络得到全局特征并剑气转化为图结构特征。本方法将网络划分为目标检测分支和域自适应分支。在目标检测分支中,本方法采用交叉熵损失函数获得目标检测损失。在域自适应分支中,本方法在图结构特征的基础上生成伪节点来补全缺失的类别,在补全的图结构特征上进行图匹配。本发明通过图结构引入了类内差异,通过生成伪节点来补全图结构特征中缺失的类别,从而获得更优更全面的特征表达,提高了域自适应目标检测的精度。

本发明授权一种基于图匹配的域自适应目标检测方法在权利要求书中公布了:1.一种基于图匹配的域自适应目标检测方法,其特征在于,包括以下步骤: S1获取两个不同的图像数据集,其中一个是已标注的源域图像数据集,另一个是未标注的目标域图像数据集; S2基于通过深度学习网络模型提取的源域图像数据集和目标域图像数据集的全局特征,通过训练判别器获得全局特征的对抗性损失,并利用源域图像数据集的全局特征执行目标检测任务,得到目标检测损失;本步骤的过程中: 通过特征提取器ResNet-50提取获得源域图像数据集和目标域图像数据集的全局特征; 利用源域图像数据集的全局特征执行目标检测任务的过程中,所述检测任务的检测头包括分类分支、检测分支和中心度分支; 通过式 计算获得全局特征判别器的对抗性损失;式中,指特征提取网络从源域提取到的全局特征,指特征提取网络从目标域提取到的全局特征,u,v指特征上的某一位置,DGA指全局特征判别器,用于识别每个特征上的像素是来自源域还是目标域,z指域标签; S3通过非线性投影操作将源域图像数据集和目标域图像数据集的全局特征转换为图结构特征;在源域和目标域的图结构特征之间训练图节点判别器,得到图节点判别器的对抗性损失;通过memorybank对源域图像数据集和目标域图像数据集的图结构特征的语义进行补全操作;使用补全操作后的源域图像数据集和目标域图像数据集的图结构特征进行二分图匹配操作,获得图匹配损失; S4将全局特征的对抗性损失、图节点判别器的对抗性损失、目标检测损失和图匹配损失相加,获得总损失函数;将源域图像数据集和目标域图像数据集分批次输入到深度学习网络模型进行前向传播,计算获得总损失函数的损失值;通过损失值对深度学习网络模型进行反向传播; S5重复执行步骤S1至S4,直至损失值收敛,获得训练完成的深度学习网络模型; S6将获取的目标域的测试集输入到练完成的深度学习网络模型中,获得目标图像的目标检测结果,并计算模型在测试集上的平均精度mAP。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京交通大学,其通讯地址为:100044 北京市海淀区西直门外上园村3号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由AI智能生成
免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。