南京理工大学顾陈获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉南京理工大学申请的专利基于FMCW雷达的多说话人识别方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116203521B 。
龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111452095.7,技术领域涉及:G01S7/41;该发明授权基于FMCW雷达的多说话人识别方法是由顾陈;薛鲲鹏;洪弘;薛彪;李彧晟;孙理;朱晓华设计研发完成,并于2021-11-30向国家知识产权局提交的专利申请。
本基于FMCW雷达的多说话人识别方法在说明书摘要公布了:本发明公开了一种基于FMCW雷达的多说话人识别方法,方法包括:使用DOA算法对多说话人进行定位;基于DOA的自适应数字波束形成,对接收的信号进行加权,得到对应角度的回波信号;对各回波信号计算距离维FFT,选取目标所在距离门,提取目标的雷达回波信号;使用带通滤波器对信号滤除干扰;使用曲线拟合的方法消除体动带来的影响;使用二级门限判法分割有声段;使用改进VMD算法对声带振动信号进行处理提取基频;对滤波后的雷达回波信号提取语音参数;将提取到的基频信号与雷达回波信号的语音参数相融合送入GRU神经网络,得到说话人识别结果。本发明方法有效可行,性能可靠,可以准确实现多说话人识别。
本发明授权基于FMCW雷达的多说话人识别方法在权利要求书中公布了:1.一种基于FMCW雷达的多说话人识别方法,其特征在于,所述方法包括以下步骤: 步骤1,接收雷达回波信号,利用DOA算法对说话人进行角度定位,同时利用MUSIC算法获得说话人所在角度θ; 步骤2,由步骤1所得到的说话人角度θ,利用基于LCMV准则的自适应数字波束形成算法获得对应于期望信号的权向量WLCMV,经过加权后得到θ方向的雷达回波信号y1t; 步骤3,对步骤2得到的θ方向的雷达回波信号y1t,进行距离维的短时傅里叶变换,获得期望目标的信号y2t; 步骤4,对步骤3得到的期望目标信号y2t进行运动补偿,获得消除体动影响的信号y3t; 步骤5,对步骤4得到的体动补偿后的信号y3t进行高通滤波,得到输出信号y4t; 步骤6,对步骤5得到的去除干扰后的信号y4t进行有声段切割,获得有声段信号y5t; 步骤7,基于步骤6得到的有声段信号y5t,通过改进VMD变换提取雷达信号的基频信号y6t; 步骤8,基于步骤6得到的有声段信号y5t提取语音特征参数; 步骤9,将步骤7得到的基频信号y6t与步骤8得到的语音特征参数送入GRU神经网络实现说话人识别; 步骤7所述基于步骤6得到的有声段信号y5t,通过改进VMD变换提取雷达信号的基频信号y6t,具体包括: 步骤7-1,对有声段信号y5t进行快速FFT获得信号的Fourier谱; 步骤7-2,利用细分三次样条插值法提取有声段信号y5t的Fourier频谱包络; 步骤7-3,计算频谱包络的采样点数,并对从第二个采样点至倒数第二个采样点进行遍历,当一个采样点同时大于前一个采样点以及后一个采样点时,将该采样点确定为极大值点,以此确定频谱包络的极大值个数K,将其设为VMD的模态个数; 步骤7-4,将频谱趋势极大值的横坐标归一化为xm,并设置为VMD的初始中心频率 步骤7-5,基于步骤7-3与步骤7-4所计算得到初始中心频率以及模态个数K,进行变分模态分解; 步骤7-6,计算不同模态的能量,基于频谱能量以及排列熵确定基频信号所在模态,提取基频信号。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励