Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 广西大学殷林飞获国家专利权

广西大学殷林飞获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉广西大学申请的专利一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116700011B

龙图腾网通过国家知识产权局官网在2026-04-10发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310867687.8,技术领域涉及:G05B13/04;该发明授权一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法是由殷林飞;曹义;胡立坤设计研发完成,并于2023-07-15向国家知识产权局提交的专利申请。

一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法在说明书摘要公布了:本发明提出一种增强深度Transformer‑Attention集成预测的分数阶微积分降能引导方法,该方法由Transformer‑Attention网络、结合时序注意力单元的高效时序预测网络、分数阶随机动态微积分控制器组成。该方法考虑综合能源系统的能源消耗,以能耗影响因素、能源生产量作为输入,输出最优的降能引导信号。该方法中的Transformer‑Attention网络和结合时序注意力单元的高效时序预测网络能解决基准能源消耗量的预测问题,用于输出最优的预测结果;该方法中的分数阶随机动态微积分控制器能通过预测的能源消耗量和能源生产量得到最优的降能引导信号。所提方法能降低综合能源系统的整体能耗,能提高综合能源系统的稳定性。

本发明授权一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法在权利要求书中公布了:1.一种增强深度Transformer-Attention集成预测的分数阶微积分降能引导方法,其特征在于,该方法将Transformer-Attention网络、结合时序注意力单元的高效时序预测网络、分数阶随机动态微积分控制器相结合,用于综合能源系统的长期降能引导;所述方法在使用过程中的步骤为: 步骤1:建立综合能源系统降能引导的运作框架;综合能源系统从发电厂、锅炉、化石燃料中获得能源生产量,从能源消耗侧收集预计需要的能源消耗量,综合能源系统将能源生产量和预计需要的能源消耗量比对,通过降能引导方法找到最优的降能引导信号,然后,综合能源系统向能源消耗侧发送降能引导信号,引导工业、商业、住宅消耗能源,降低能耗; 步骤2:提出增强深度Transformer-Attention集成预测的分数阶微积分控制,通过Transformer-Attention网络、结合时序注意力单元的高效时序预测网络对综合能源系统的基准能源消耗量进行预测; 首先,进行数据预处理,并将处理后的数据进行特征提取;然后,将经过处理后得到的特征数据分别用Transformer-Attention网络方法和结合时序注意力单元的高效时序预测网络进行预测,对预测结果进行选择后得到预测的基准能源消耗量; Transformer-Attention网络是一种以多头注意力为基本运算单元的深层网络架构,能在获取长期依赖和低时间复杂度间获取平衡;通过提出ProbSparse自注意力机制、自注意力蒸馏机制、生成式解码器来提高预测精度; Transformer-Attention网络由输入层、编码器、解码器、全连接层和输出层组成; 首先,将电能、热能和燃料的历史消耗量全部输入到编码器中进行编码得到一个映射序列,然后再将长序列中需要预测的目标值填补为零,与编码器得到的映射序列一起输入到解码器中,直接生成需要得到的预测输出元素;编码器将第t个输入序列塑造成一个矩阵: 1 式中,是指编码矩阵;t是指t时刻;是指大小为的实数矩阵集合;是指实数;是指序列的长度;d是输入维度; Transformer-Attention网络所采用的ProbSparse自注意力机制与标准的自注意力机制不同,标准的自注意力机制采用的缩放的点积对为: 2 式中,是指标准的自注意力机制值;Q是查询向量;K是指被查询的向量;V是内容向量;是被查询向量的转置;是归一化指数函数;是Q的长度;是K的长度;是指大小为的实数矩阵集合;是指大小为的实数矩阵集合; ProbSparse自注意力机制将标准注意力机制的缩放点积对定义成一个概率形式的内核平滑器为:3 式中,是指概率形式的自注意力机制值;i、j、l是指行数;是指Q的第i行;是指K的第j行;是指K的第l行;是指V的第j行;是指概率函数;在下的条件概率分布;是指条件概率的和; 内核平滑器中的概率函数采用的非对称指数核为: 4 式中,是的转置; 查询向量的概率分布满足的均匀分布为: 5 式中,是指查询向量的均匀分布; 如果接近均匀分布,则自注意力变成值V,对于预测输出是多余的,因此采用分布p和q之间的相似性来区分序列中重要的部分,通过Kullback-Leibler散度来衡量的相似性为: 6 式中,是指分布p和q之间的Kullback-Leibler散度;的转置;是以e为底的对数函数; 在Kullback-Leibler散度中去掉这个常数,将第i个查询向量的稀疏度度量定义为: 7 式中,是指第i个查询向量的稀疏度度量; 在标准的自注意力机制中稀疏度度量得到ProbSparse自注意力机制的注意力值为: 8 式中,是指ProbSparse自注意力机制的注意力值;是指一个与Q相同大小的稀疏矩阵,仅包含稀疏度度量; 通过计算每个编码矩阵中每个元素的ProbSparse自注意力值,注意力值的蒸馏过程是提取ProbSparse自注意力机制的注意力值,对注意力值赋予具有支配特征的较优特征特权,并在下一层生成聚焦的自注意特征映射;通过蒸馏过程从第n层向前进入n+1层为: 9 式中,是指第n层的自注意特征映射;是指第n+1层的自注意特征映射;是指最大池化函数;是指激活函数;是指利用激活函数在时间维度上执行1维卷积滤波器;是指包含多头ProbSparse自注意和注意块中的基本操作; 生成式解码器由2个相同的多头注意层堆叠而成,生成式预测则能缓解长时间预测中速度下降的问题;向解码器输入的向量为: 10 式中,是指向解码器输入的向量;是指起始分词向量;是指目标序列的占位符向量,每一个元素都为0;是指起始分词向量的长度;是指目标序列的占位符向量的长度;是指拼接操作函数; 通过将和进行解码操作之后,将向量通过全连接层得到预测的能源消耗量为: 11 式中,是指通过Transformer-Attention网络预测的能源消耗量;是指输出值构成的大小为实数矩阵集合;是指输出数据的维度;是指构成目标输出的第o个向量; 结合时序注意力单元的高效时序预测网络不是使用循环神经网络,而是使用注意力机制来并行化地处理时间演变;结合时序注意力单元的高效时序预测网络将时序注意力分解为两个部分:静态注意力和动态注意力;静态注意力使用小核心深度卷积和扩张卷积来实现大感受野,从而捕捉序列的长时间依赖关系;动态注意力利用时序间注意力的不同来学习时序权重,从而捕捉序列间变化趋势;结合时序注意力单元的高效时序预测网络利用一种差分散度正则化方法,用于优化时序预测学习的损失函数;差分散度正则化方法通过将预测值和真实值之间的差分转换为概率分布,并计算它们之间的Kullback-Leibler散度,使结合时序注意力单元的高效时序预测网络学习到时序中固有的变化规律;将电能、热能和燃料的历史消耗量输入到结合时序注意力单元的高效时序预测网络的输入矩阵中为: 12 式中,T是指输入的时间序列的长度;是指大小为T的实数矩阵集合; 神经网络映射的预测值为: 13 式中,是指神经网络模型映射的预测值;是一个神经网络模型; 将神经网络模型映射的预测值和真实值作前向差分为: 14 式中,是神经网络映射的预测值的前向差分;是指神经网络模型映射的第i+1个预测值;是指神经网络模型映射的第i个预测值;是指真实值的前向差分;是指真实值第i+1个数据;是指真实值第i个数据; 将前向差分通过函数转化为概率为: 15 式中,是指概率分布函数;是指动态注意力;是指静态注意力;是指温度系数;exp是以e为底的指数函数; 通过计算概率分布和之间的Kullback-Leibler散度得到微分散度正则化函数为: 16 式中,是指微分散度正则化函数;是需要预测的时间序列的长度; 结合时序注意力单元的高效时序预测网络以完全无监督的方式进行端到端训练,由均方误差损失和常数加权的微分发散正则化构成的评估差异的损失函数为: 17 式中,是评估差异的损失函数;是一个常数; 通过损失函数能求解出结合时序注意力单元的高效时序预测网络的权重参数为: 18 式中,是求解出的权重参数的值;argmin是求解目标函数最小值对应的解;是一个权重参数; 结合时序注意力单元的高效时序预测网络是从时间t+1预测随后的,结合时序注意力单元的高效时序预测网络能学习从的映射,通过结合时序注意力单元的高效时序预测网络得到的能源消耗量为: 19 式中,是指通过结合时序注意力单元的高效时序预测网络预测的能源消耗量;是指大小为的实数矩阵集合; 步骤3:把增强深度Transformer-Attention集成预测的分数阶微积分控制用于综合能源系统的降能引导;将预测的基准能源消耗量输入到分数阶随机动态微积分控制器中,分数阶随机动态微积分控制器输出降能引导信号; 综合能源系统的能源消耗有电力消耗、热能消耗和燃料消耗,利用Transformer-Attention网络和结合时序注意力单元的高效时序预测网络预测到的能源消耗量通过基准能源消耗量预测函数得到的基准能源消耗量为: 20 式中,是指预测的基准能源消耗量;是指基准能源消耗量预测函数; 利用分数阶随机动态微积分控制器输出的能耗状态微分为: 21 式中,是指分数阶微积分的阶次;是指能耗状态;是指对能耗状态的分数阶微分;是指综合能源系统获得的能源量;是指分数阶随机动态微积分控制器预测的能源消耗量;是指对时间的分数阶微分;是指噪音强度;是指对维纳过程的分数阶积分;是指维纳过程; 综合能源系统包括能源产生侧和能源消耗侧,能源消耗量受利用分数阶随机动态微积分控制器输出能源消耗量的变化量为: 22 式中,是指能源消耗量的变化量;是指逻辑函数;、、和分别是指逻辑函数里面的能耗状态函数、能耗系数函数、季节函数、气温函数和准入规则函数的系数;Sta是指能耗状态函数;是能耗状态函数Sta的参数;Coe是指能耗系数函数;是指能耗系数;是指能耗系数函数Coe的参数;Wea是指季节函数;是指季节情况;Tem是指气温函数;是指气温;Rul是指准入规则函数;是指准入规则;是指能源消耗量的参数; 通过分数阶随机动态微分控制器来得到预测的用电负荷为: 23 式中,是指可再生能源量的比例;是指符号函数; 符号函数S为: 24 逻辑函数为: 25 式中,是逻辑函数的参数; 步骤4:考虑到由能耗状态、能耗系数、季节、气温和准入规则所引起的动态能耗变化,由分数阶随机动态微积分控制器产生降能引导信号; 由能耗的影响因素、预测的基准能源消耗量和综合能源系统提供的能源量作为分数阶随机动态微积分控制器的输入变量,降能引导信号作为输出变量; 能耗状态函数Sta为: 26 式中,、、和分别是指能耗状态函数Sta中控制能耗状态的偏斜程度、变化量常数项、变化量二次项和变化量六次项的系数; 能耗系数函数Coe为: 27 式中,是指样条总数;z是指第z个样条;是指I样条函数; 季节函数Wea为: 28 式中,是指正弦函数; 气温函数Tem为: 29 准入规则函数Rul为: 30 预测的基准能源消耗量和能源供给量作为分数阶随机动态微积分控制器的输入变量,通过分数阶随机动态微分方程输出预测能源消耗量,再利用目标函数求解最优的降能引导信号;利用分数阶随机动态微积分控制器求解降能引导信号的函数为: 31 式中,period是指预测周期;是指以能耗系数为变量的预测能源消耗量函数; 步骤5:将降能引导信号运用到综合能源系统中,引导能源消耗侧使用能源。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人广西大学,其通讯地址为:530004 广西壮族自治区南宁市西乡塘区大学东路100号广西大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。