武汉大学马于涛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉武汉大学申请的专利基于自监督聚类对比学习的宫颈OCT图像分类方法及系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116721289B 。
龙图腾网通过国家知识产权局官网在2025-10-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310661868.5,技术领域涉及:G06V10/764;该发明授权基于自监督聚类对比学习的宫颈OCT图像分类方法及系统是由马于涛;陈开一;张燕;王庆彬;黄炜俊设计研发完成,并于2023-06-05向国家知识产权局提交的专利申请。
本基于自监督聚类对比学习的宫颈OCT图像分类方法及系统在说明书摘要公布了:本发明提供基于自监督聚类对比学习的宫颈OCT图像分类方法及系统,能够有效减少大量正负样本对抗的强依赖、防止模型坍塌、切实提升宫颈OCT图像的分类准确率。方法包括:步骤1,划分预训练数据集和分类数据集;步骤2,构建在预训练数据集上进行自监督聚类对比学习的预训练模型;步骤3,对实例表征和聚类表征分别设置实例损失函数和聚类损失函数,计算最后输出的特征的损失值,并更新骨干网络ViT的参数,采用预训练模型进行预训练,得到训练好的预训练模型;步骤4,使用该预训练模型在分类数据集中的训练集上进行模型微调,分类训练,得到宫颈OCT图像分类模型;步骤5,用该模型对分类数据集中的测试集进行预测,得到分类结果。
本发明授权基于自监督聚类对比学习的宫颈OCT图像分类方法及系统在权利要求书中公布了:1.基于自监督聚类对比学习的宫颈OCT图像分类方法,其特征在于,包括: 步骤1,将获取的宫颈组织OCT影像划分为预训练数据集和分类数据集; 步骤2,构建在预训练数据集上进行自监督聚类对比学习的预训练模型;预训练模型包含数据增强,卷积块和位置编码,骨干网络ViT,聚类投影头加损失函数以及对比投影头加损失函数五个部分;宫颈OCT影像首先经过预处理和两次数据增加得到两个不同的增强版本,然后经过卷积块提取特征并加入位置编码,接着通过ViT提取这两个不同的数据增强版本的特征,经过实例投影头和聚类投影头对ViT提取的特征进行处理得到每个版本的实例表征和聚类表征,每一个输入宫颈的OCT影像都会得到四个特征; 步骤3,对实例表征和聚类表征分别设置实例损失函数和聚类损失函数,计算最后输出的特征的损失值,并利用反向传播算法更新骨干网络ViT的参数,采用预训练模型进行预训练,得到训练好的预训练模型; 步骤4,使用训练完毕的预训练模型在分类数据集中的训练集上进行模型微调,然后进行分类训练,得到最终训练好的宫颈OCT图像分类模型; 步骤5,用最终训练好的宫颈OCT图像分类模型对分类数据集中的测试集进行预测,得到在测试集上的分类结果; 其中,步骤2包括: 步骤2.3.1,在输入到ViT之前,将每张图像都划分为系列无重叠的图像块Patch; 步骤2.3.2,每一个图像块Patch都经过4层步长为2、大小为3×3的卷积加上1层步长为1、大小为1×1的卷积层得到系列图像特征,每层卷积后都会有标准的BN加ReLU激活函数;其中,前4个卷积层用于提取特征和降维,最后一个卷积层用来改变通道数,并拟合成ViT输入所需要的尺寸;最后得到的系列图像特征记为TokenEmbedding; 步骤2.3.3,将所有TokenEmbedding按元素加上相应的位置编码来补充位置信息;向ViT中引入一个分类的ClsToken和分类位置编码信息用来学习全局特征;最后取分类位置的输出向量作为当前图像的深度特征。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人武汉大学,其通讯地址为:430072 湖北省武汉市武昌区八一路299号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励