Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 昆明理工大学余正涛获国家专利权

昆明理工大学余正涛获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉昆明理工大学申请的专利一种面向语音内容为中心的自监督对比表示学习方法、系统、电子设备、可读存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119943033B

龙图腾网通过国家知识产权局官网在2025-10-14发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510108344.2,技术领域涉及:G10L15/06;该发明授权一种面向语音内容为中心的自监督对比表示学习方法、系统、电子设备、可读存储介质是由余正涛;李金龙;董凌;王文君设计研发完成,并于2025-01-23向国家知识产权局提交的专利申请。

一种面向语音内容为中心的自监督对比表示学习方法、系统、电子设备、可读存储介质在说明书摘要公布了:本发明涉及一种面向语音内容为中心的自监督对比表示学习方法、系统、电子设备、可读存储介质,属于语音识别领域。本发明包括步骤:获取多任务语音识别相关的数据集;多任务语音识别相关的数据集预处理;利用音调扰动和说话人扰动的语音数据进行训练预训练语言模型,并通过微调预训练语言模型最后两层实现对语音表征的优化;提取扰动语音的表征后,通过Sinkhorn‑Knopp算法对表征矩阵进行归一化;通过设计对比损失函数,优化表征的语义一致性并提升预训练语言模型对内容的聚合能力。本发明通过利用自监督微调预训练模型,有效的解决了语音内容表征和说话人表征解耦问题,提升了模型在内容相关的识别任务上的性能。

本发明授权一种面向语音内容为中心的自监督对比表示学习方法、系统、电子设备、可读存储介质在权利要求书中公布了:1.一种面向语音内容为中心的自监督对比表示学习方法,其特征在于:所述方法包括: Step1、获取多任务语音识别相关的数据集; Step2、多任务语音识别相关的数据集预处理; Step3、利用音调扰动和说话人扰动的语音数据进行训练WavLM-Base或HuBERT-Base预训练语言模型,并通过微调预训练语言模型最后两层实现对语音表征的优化; Step4、提取扰动语音的表征后,通过Sinkhorn-Knopp算法对表征矩阵进行归一化,用于确保表征分布的一致性; Step5、通过设计对比损失函数,优化表征的语义一致性并提升预训练语言模型对内容的聚合能力; 所述Step3包括: 使用基于WavLM-Base或HuBERT-Base的预训练语言模型在Librispeech的train-clean-100小时的数据集上进行自监督微调,对生成的说话人扰动语音和音调扰动语音进行自监督对比学习,使预训练语言模型学习到内容相关的语音特征,解耦掉说话人相关的信息; 所述Step3还包括: 预训练语言模型用于提取扰动音频的特征,然后通过线性投影和正则化,得到高纬度的特征向量;特征提取过程表示为: ; ; 其中,说话人扰动特征和音调扰动特征经过预训练语言模型进行特征提取,再经过线性投影和正则化分别生成了高维的说话人扰动特征和高维的音调扰动特征,Encoder表示HuBERT-base或WavLM-base预训练语言模型,表示对预训练语言模型提取的特征进行线性投影和正则化,的维度为batch_size*seq_length,256,batch_size为音频训练批次大小,seq_length为音频序列长度。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人昆明理工大学,其通讯地址为:650039 云南省昆明市一二一大街文昌路68号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。