华南理工大学郭文龙获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉华南理工大学申请的专利一种面向未知混叠场景的两阶段非侵入式负荷检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119202938B 。
龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411199440.4,技术领域涉及:G06F18/2431;该发明授权一种面向未知混叠场景的两阶段非侵入式负荷检测方法是由郭文龙;罗庆全;余涛;胡小磊;吴毓峰;梁敏航;王艺澎设计研发完成,并于2024-08-29向国家知识产权局提交的专利申请。
本一种面向未知混叠场景的两阶段非侵入式负荷检测方法在说明书摘要公布了:本发明公开了一种面向未知混叠场景的两阶段非侵入式负荷检测方法,首先基于特征掩蔽构建轻量化的通用降噪模型以及基于非局部残差收缩模块构建轻量化的鲁棒识别模型,用于提取并识别关键电器特征。通过添加随机噪声构建增强训练集,分别以均方误差和交叉熵损失函数训练两个模型。在测试阶段,采用训练好的模型对未知混叠场景的目标电器进行两阶段的鲁棒识别,在第一阶段,采用训练好的通用降噪模块对波形进行降噪处理,在第二阶段,采用训练好的鲁棒识别模型对降噪后的目标电器的混叠分解波形进行关键特征识别,获得目标电器的预测标签。本发明的设计兼顾了轻量化和鲁棒性,适合边缘部署,显著提升了负荷检测在复杂环境中的性能。
本发明授权一种面向未知混叠场景的两阶段非侵入式负荷检测方法在权利要求书中公布了:1.一种面向未知混叠场景的两阶段非侵入式负荷检测方法,其特征在于,包括以下步骤: 步骤1:基于特征掩蔽构建轻量化的通用降噪模型,用于对未知混叠场景的目标电器波形进行降噪,获得更具辨识性的目标电器波形;基于非局部残差收缩模块构建轻量化的鲁棒识别模型,用于提取降噪后目标电器波形的关键特征,从而进行鲁棒识别;获取目标场景的各个电器单独运行的电压电流数据以建立单体数据集;所述通用降噪模型包含编码器、特征掩蔽模块、解码器和增益模块,具体情况如下: a、编码器由一个一维卷积和ReLU激活函数构成,用于将输入波形特征映射到高维特征空间;编码器的输入为电器的单个周波的电流波形,输入之前需要基于每个电流周波的方差和均值对该电流周波进行如下的标准化处理: ; ; ; 式中,xi表示第i个电流采样点的电流;N为电流周波的总采样点数;μ为一个周波的电流均值;v为该周波的标准差;为标准化处理后的电流采样点; b、特征掩蔽模块首先通过非局部残差收缩模块对上述编码器的高维特征进行成分分析,将上述非局部残差收缩模块的输出经过门控单元从而得到对电流波形的特征掩蔽向量;其中,门控单元设计如下: ; 式中,代表非局部残差收缩模块的输出向量;⊙代表元素级别的乘法;表示门控单元输出的掩蔽向量,σ表示Sigmoid 激活函数;随后利用特征掩蔽向量与编码器输出的高维特征进行逐元素相乘,从而提取噪声特征分量; c、解码器通过一维卷积对特征掩蔽模块输出的噪声特征分量进行噪声波形重建,并且使用输入的电流波形减去该噪声波形实现干净波形的提取; d、增益模块通过左、右分支线性层对提取出的干净波形进行全局信息重建;其中,右分支线性层为一个的线性层,其采用全局平均池化获得波形的整体幅值信息,而后计算波形的整体幅值增益,然后将该增益乘以左分支线性层的输出,以减少波形的整体的幅值误差,左分支线性层为一个的线性层; 步骤2:通过向步骤1中获取的单体数据集添加指定信噪比的随机噪声干扰来构建扰动数据集,并将单体数据集与扰动数据集合并成增强训练集; 步骤3:采用步骤2构建的增强训练集分别训练步骤1构建的通用降噪模型和鲁棒识别模型,其中通用降噪模型采用均方误差损失函数进行训练,鲁棒识别模型采用交叉熵损失函数进行训练; 步骤4:在测试阶段,采用步骤3中训练好的模型对未知混叠场景的目标电器的混叠分解波形进行两阶段的鲁棒识别,在第一阶段,采用训练好的通用降噪模块对波形进行降噪处理,在第二阶段,采用训练好的鲁棒识别模型对降噪后的目标电器的混叠分解波形进行关键特征识别,获得目标电器的预测标签。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励