北京市眼科研究所;首都医科大学附属北京同仁医院田磊获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京市眼科研究所;首都医科大学附属北京同仁医院申请的专利一种基于眼睑缘分割模型的训练方法和分割方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119229123B 。
龙图腾网通过国家知识产权局官网在2025-10-28发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411352007.X,技术领域涉及:G06V10/26;该发明授权一种基于眼睑缘分割模型的训练方法和分割方法是由田磊;接英;冯珺;周美华;李傲;郭翰文设计研发完成,并于2024-09-26向国家知识产权局提交的专利申请。
本一种基于眼睑缘分割模型的训练方法和分割方法在说明书摘要公布了:本发明涉及深度学习技术领域,尤其涉及一种眼睑缘分割模型的训练方法和分割方法,包括:S1、基于预先设置的眼部图像数据集,构建数据训练集;S2、根据所述数据训练集训练预先构建的眼睑缘分割模型,获得训练好的眼睑缘分割模型;在训练过程中,当任一第一编码器接收到输入数据时,则根据预先设置的公式一输出结果,所述公式一为:Ei=RSUEi‑1;其中,当i=1时,Ei‑1即为输入眼睑缘分割模型的初始图像数据;当任一第一解码器接收到输入数据时,则根据预先设置的公式二输出结果,所述公式二为:Di=RSUDi+1+Ei;其中,i=N‑1时,Di+1为Ei+1。其有益效果是,以相对简单的网络架构,降低对数据量的依赖性。
本发明授权一种基于眼睑缘分割模型的训练方法和分割方法在权利要求书中公布了:1.一种眼睑缘分割模型的训练方法,其特征在于,包括: S1、基于对抗攻击算法和预先设置的眼部图像数据集生成对抗样本集,并将对抗样本集与眼部图像数据集进行混合,构建数据训练集;所述数据训练集包括至少一张眼部图像数据,以及每张眼部图像数据对应的掩模; S2、根据所述数据训练集训练预先构建的眼睑缘分割模型,获得训练好的眼睑缘分割模型;所述眼睑缘分割模型基于U2-Net模型,包括N级第一编码器和N-1级第一解码器;所有所述第一编码器和第一解码器均由特征提取结构RSU-L或RSU-4F构成; 在训练过程中,当任一第一编码器接收到输入数据时,则根据预先设置的公式一输出结果,所述公式一为: Ei=RSUEi-1; 其中,Ei为第i级第一编码器的输出,当i=1时,Ei-1即为输入眼睑缘分割模型的初始图像数据; 当任一第一解码器接收到输入数据时,则根据预先设置的公式二输出结果,所述公式二为: Di=RSUDi+1+Ei; 其中,i=N-1时,Di+1为Ei+1,Di为第i级第一解码器的输出; 所述S2还包括: 训练过程中,根据预先设置的交叉熵损失函数,获得模型预测结果与掩模之间的差异,并通过预先设置的梯度下降算法对模型进行优化,迭代次数达到最大时,随机选取正则化参数B作为预先设置的映射函数Fa的输入a,由对应的损失值作为输出R,R=Fa,则输出Fa由高斯过程生成,且表示为: Fa~GPca,va,a′; 其中ca为均值函数,va,a′为协方差函数; 基于映射函数Fa得到任意一组参数对应的输出R,用该输出更新下一次的高斯过程,令D表示所有的数据,则有: D={a1,R1,a2,R2,…,an,Rn}; 获得高斯过程的均值μA和方差σ2; 基于期望最大化算法选择一个新的a*进行下一次高斯过程,其中 a*=argmaxa∈Aμx+Uσx,其中U为探索系数,σx为高斯过程在样本点a处的预测标准差; 重复选择下一采样点的参数组合并进行高斯过程和更新高斯过程,直至达到最大迭代次数或满足终止条件,此时a*为最优的正则参数,即获得训练完成的眼睑缘分割模型; 所述交叉熵损失函数为: 其中,为模型预测结果与掩模之间的差异,M为数据训练集中眼部图像数据的数量,yk为编号为k的眼部图像数据对应的掩模,为编号为k的眼部图像数据对应的预测结果; 在训练过程中,基于每次预测中的不确定性进行评估,并基于不确定性的评估结果对预测结果进行后处理。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京市眼科研究所;首都医科大学附属北京同仁医院,其通讯地址为:100005 北京市东城区后沟胡同17号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励