北京大学深圳研究生院刘宏获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京大学深圳研究生院申请的专利面向多人场景的视听融合唤醒词识别方法及装置获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116312512B 。
龙图腾网通过国家知识产权局官网在2026-03-06发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310101018.X,技术领域涉及:G10L15/22;该发明授权面向多人场景的视听融合唤醒词识别方法及装置是由刘宏;李一迪;王国权设计研发完成,并于2023-02-01向国家知识产权局提交的专利申请。
本面向多人场景的视听融合唤醒词识别方法及装置在说明书摘要公布了:本发明公开了一种面向多人场景的视听融合唤醒词识别方法及装置,所述方法包括:采集多人场景下的原始音频和每个人的唇部运动视频;将所述原始音频和所述唇部运动视频一同送入唤醒词识别网络,以得到唤醒词识别结果。本发明通过引入注意力机制来计算时间得分矩阵,并通过比较每个帧的视听得分结果来检测潜在的说话人;通过知识蒸馏将知识从大模型转移到设备上的轻量化模型,以达到降低模型计算复杂度的目的。
本发明授权面向多人场景的视听融合唤醒词识别方法及装置在权利要求书中公布了:1.一种基于视听融合的多人场景下的唤醒词识别方法,其特征在于,所述方法包括: 采集多人场景下的原始音频和每个人的唇部运动视频; 将所述原始音频和所述唇部运动视频一同送入唤醒词识别网络,以得到唤醒词识别结果;其中,所述唤醒词识别网络包括: 视频特征提取网络,用于提取唇部运动视频中每一帧的视频特征; 音频特征提取网络,用于提取所述原始音频的音频特征; 融合与识别网络,用于通过多头注意力机制对所有视频特征的相加结果和所述音频特征进行时间维度的建模,融合建模后的视频特征序列和音频特征序列,并基于融合结果,得到唤醒词识别结果; 其中,所述融合建模后的视频特征序列和音频特征序列,并基于融合结果,得到唤醒词识别结果,包括: 使用一K-maxPool层提取所述视频特征序列中特征值最大的帧数据; 使用另一K-maxPool层提取所述音频特征序列中特征值最大的帧数据; 将所述视频特征序列中特征值最大的帧数据和所述音频特征序列中的特征值最大的帧数据输入全连接层,以得到每一唤醒词的预测概率; 基于所述预测概率,得到唤醒词识别结果。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京大学深圳研究生院,其通讯地址为:518055 广东省深圳市南山区西丽镇深圳大学城北大校区;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励