Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 华南理工大学张禄亮获国家专利权

华南理工大学张禄亮获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉华南理工大学申请的专利基于数学形态学和改进Transformer的非侵入式负荷分解方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115905857B

龙图腾网通过国家知识产权局官网在2025-11-04发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202211279705.2,技术领域涉及:G06F18/214;该发明授权基于数学形态学和改进Transformer的非侵入式负荷分解方法是由张禄亮;刘紫罡;吴青华;季天瑶设计研发完成,并于2022-10-19向国家知识产权局提交的专利申请。

基于数学形态学和改进Transformer的非侵入式负荷分解方法在说明书摘要公布了:本发明公开了一种基于数学形态学和改进Transformer的非侵入式负荷分解方法,主要利用非侵入式负荷识别装置获取家庭的用电信息,进行数据预处理并构建数据集,通过构建多尺度数学形态学滤波器对数据进行滤波,然后输入到改进的Transformer神经网络进行训练学习:改进点主要体现在引入LocalBiLSTM层代替位置编码层,利用概率稀疏注意力机制代替传统注意力机制,并且使用1D卷积网络作为前向反馈层,训练时利用大量数据结合贝叶斯优化器不断调节网络参数,最后选出损失最小的作为最优模型参数,利用最优模型完成负荷分解任务,并对非侵入式负荷分解结果进行分析。通过本发明可以得到抗噪性强、稳定性强的负荷信息,并且负荷分解结果具有精度高和分解时间短的优势。

本发明授权基于数学形态学和改进Transformer的非侵入式负荷分解方法在权利要求书中公布了:1.基于数学形态学和改进Transformer的非侵入式负荷分解方法,其特征在于,包括以下步骤: 1利用非侵入式负荷识别装置获取待测目标电器的功率序列和家庭总用电功率序列,并进行数据预处理和构建数据集,将数据集划分训练集和测试集; 2构建基于多尺度数学形态学处理数据的滤波器,称为多尺度数学形态学滤波器,对数据集中的数据进行滤波; 3将滤波后的数据输入构建的非侵入式负荷模型进行分解训练,利用训练集中的数据结合贝叶斯优化器不断调节更新模型参数,最后将测试集中的数据输入训练好的模型,得到待测目标电器的功率曲线,并利用相应指标进行评判;其中,构建的非侵入式负荷模型为改进的Transformer神经网络,该网络改进点包括: 首先,采用LocalBiLSTM层代替传统Transformer神经网络中的位置编码层; LocalBiLSTM层将原始负荷功率序列分成许多短的片段,这些片段只包含短时间的负荷信息;通过滑动窗口从经过滤波后的数据集中提取连续的窗口大小为K'的局部功率序列,通过局部滑动窗口提取的负荷功率序列形成一个局部功率短序列,分别从前后两个方向训练一个共享的BiLSTM层来学习潜在的信息,整个负荷数据序列的每个局部区域的局部功率信息被明确地纳入到学习的潜像表征中,把这种共享的BiLSTM层称为LocalBiLSTM层,LocalBiLSTM层只关注局部的短期依赖关系,而不考虑任何长期依赖关系; 具体来说,一系列功率序列xt-M-1,xt-M-2,…,xt被长度为G的滑动窗口依次选择,M为结构元素的长度,LocalBiLSTM层处理短期功率序列并产生G个隐藏状态,其中最后一个功率点xt被用作本地短序列ht的表示; ht=LocalBiLSTMxt-G-1,xt-G-2,…,xt 在利用滑动窗口处理之前将输入序列增加了G-1个长度,从序列的角度来看,LocalBiLSTM层接受一个输入序列x1,x2,…,xN后需要输出一个包含局部区域信息的隐藏表征序列h1,h2,…,hN: h1,h2,…,hN=LocalBiLSTMx1,x2,…,xN 式中,N代表序列的索引; 其次,引入一种概率稀疏注意力机制代替传统的自我注意力机制,对自注意的计算过程进行稀疏化处理,具体来说,对每个查询Q采用基于Kullback-Leibler散度的稀疏度度量来决定是否计算该查询Q的注意函数,传统的自我注意力机制Attention表示为: 式中,Q为目标向量,K为源向量,V为源向量对应的值,d为K的维度,相似度计算采用向量的点积,并用d对结果进行尺度缩放,然后用softmax函数求权重,在自注意力机制中,Q和K是相同的,所以Q=K=V,维度的大小都是d; 而概率稀疏注意力机制只是将K换成了是稀疏向量,大小和K相同,但只包含了前u个元素,其它的都填充零,u的大小受采样因子c控制: u=clnL 式中,L表示K的长度,前u个元素取的标准,即区分重要联系和不重要联系的方法是KL散度的一个变体,被称为最大-均值度量,稀疏值M′表示如下: 式中,qi表示Q中第i个元素,kj表示K中第j个元素,这样只要随机选取u个Q中的元素和K计算M′,然后再从M′中选u个元素组成K; 最后,将传统Transformer前向反馈层中的两层denselayer改进为两层1D卷积网络,提取出相邻的隐藏元素之间的关联信息。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人华南理工大学,其通讯地址为:510640 广东省广州市天河区五山路381号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。