成都康赛信息技术有限公司唐雪飞获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉成都康赛信息技术有限公司申请的专利一种基于深度学习的教育资源场景化综合纠错方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116304038B 。
龙图腾网通过国家知识产权局官网在2026-04-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310194936.1,技术领域涉及:G06F16/353;该发明授权一种基于深度学习的教育资源场景化综合纠错方法是由唐雪飞;梁梅群;胡茂秋;陈科设计研发完成,并于2023-03-03向国家知识产权局提交的专利申请。
本一种基于深度学习的教育资源场景化综合纠错方法在说明书摘要公布了:本发明公开了一种基于深度学习的教育资源场景化综合纠错方法,包括以下步骤:S1、获取资源请求方的请求信息;S2、获取场景类型有效信息并记录到请求类型表中;S3、从教育资源池调度数据信息;S4、进入自动匹配纠错模型:若为文本类型则进入文本数据纠错,若是影像类型则进入影像纠错,得到量化后的相似度;S5、若相似度高于设置的最低阈值则将该数据信息直接发送给请求方,否则执行S6;S6、记录当前数据的预测场景类型及数据信息,作为负样本加入到教育资源池中,返回步骤S3。本发明可对文本和图像两种数据类型进行综合纠错,能够为云服务提供数据质量保障,提高错误数据的识别准确性,将错误数据归集,并将正确数据重新回写到场景中。
本发明授权一种基于深度学习的教育资源场景化综合纠错方法在权利要求书中公布了:1.一种基于深度学习的教育资源场景化综合纠错方法,其特征在于,包括以下步骤: S1、获取资源请求方的请求信息; S2、对请求内容进行解析,获取场景类型有效信息并将其记录到请求类型表中; S3、从教育资源池调度数据信息,进入自学习的全域数据纠错系统; S4、判断输出的调度信息类型,进入自动匹配纠错模型:若为文本类型则进入文本数据纠错,若是影像类型则进入影像纠错,并得到量化后的相似度; S5、对量化后的相似度进行判别处理,若相似度高于设置的最低阈值则将该数据信息直接发送给请求方,结束纠错服务;否则执行步骤S6; S6、记录当前数据的预测场景类型及数据信息,作为负样本加入到教育资源池中,返回步骤S3;包括以下子步骤: S61、结合当前的场景需求,为教育资源池中的数据进行类别定义;对全域场景数据池进行信息统计归集,以表的形式记录每条数据所属的正确场景类型名,从粗到细逐一记录; S62、数据集的制作:对当前最新的教育资源池的数据信息进行随机抽样,并将抽取到的数据信息进行分类和再组合,形成初始训练正负样本; S63、获取全域场景数据池中包含的教育资源,根据数据类型进入自动匹配纠错模型;自动匹配纠错模型的流程为:根据数据进行类型判断,如果是文本类型数据则进行到文本纠错处理,进入步骤S631;若为影像类型则进行图像纠错处理,进入步骤S632; S631、引用基于连接预选框网络的文本检测方法CTPN作为文字检测模块,进行文字检测,为S633的文字识别找出目标区域,进入S633; S632、把影像数据当成连续性的垂直像素帧,对视频影像进行帧切,得到图像信息,然后退图像信息进行数据清洗,并进入S633; S633、进行内容识别分类,识别出文本或图像内容所属场景类型是否与真实场景类型接近;内容识别分类采用双编码器架构:编码器1提供全局信息;编码器2充当局部特征提取器,编码器2的输出输入到分类器中; 编码器1基于BiLSTM,在BiLSTM的输出层前面加入空间注意力机制来进行细粒度语义表征;通过注意力机制去挖掘更具有价值的词语信息,提高相似度; ; ; 中表示注意力机制掩码信息,表示中间状态;表示图像或文本内容;表示权重;表示文档中图像或文本s的权重;表示经过归一化的注意力权重;t表示第t时刻;i表示为第i行,j表示为第j列; 编码器2选用DRNN网络,作为平行细节特征挖掘模块,并将得到的特征信息与编码器1获取到的特征信息进行融合,将特征信息融合之后记为;得到融合特征后,通过分类层进行归一化得到分类预测结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人成都康赛信息技术有限公司,其通讯地址为:610000 四川省成都市成华区一环路东一段159号310-315;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励