大连理工大学孙希明获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉大连理工大学申请的专利航空发动机燃油计量活门卡滞故障的智能实时诊断方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116484303B 。
龙图腾网通过国家知识产权局官网在2026-02-13发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310386850.9,技术领域涉及:G06F18/2433;该发明授权航空发动机燃油计量活门卡滞故障的智能实时诊断方法是由孙希明;张轩铭;于亮;刘坤志;张文博设计研发完成,并于2023-04-12向国家知识产权局提交的专利申请。
本航空发动机燃油计量活门卡滞故障的智能实时诊断方法在说明书摘要公布了:本发明属于航空发动机的故障诊断领域,提出一种航空发动机燃油计量活门卡滞故障的智能实时诊断方法。本发明设计一种1DCNN+TransformerCNTR模型架构,解决了航空发动机多工况下SFMV故障难以实时诊断的问题。通过采用部分工况下的SFMV故障数据训练模型,将训练后的模型部署到全工况下的SFMV故障诊断当中,实现诊断全工况范围内任意时刻是否发生SFMV故障以及SFMV故障程度。该方法无需将故障信号变换任何形式,直接在时域上处理原始故障信号,将故障数据的特征提取和分类两个阶段融为一体,保证了SFMV故障诊断的实时性。
本发明授权航空发动机燃油计量活门卡滞故障的智能实时诊断方法在权利要求书中公布了:1.一种航空发动机燃油计量活门卡滞故障的智能实时诊断方法,其特征在于,包括如下步骤: 步骤1:获取卡滞故障SFMV故障数据; 燃油计量活门的燃油流量的模型如式1所示: ;其中,为燃油流量,为流量系数,为燃油计量活门的开度,为燃油密度,与温度有关,为孔口前后的压差;,,是常数,与Ω成正比,通过调节Ω来调节;发生SFMV故障时导致Ω受到影响,从而影响的调节; 通过仿真试验模拟SFMV故障的方法来获取SFMV故障数据,具体如下: SFMV故障的本质即为Ω无法按照预期值进行调整,燃油计量活门中的力平衡方程如式2: ; 其中,P为控制室的油压、为计量活门的预紧力、为预计量油的压力、为燃油计量阀芯的质量、为稳态液压、为摩擦力;由于,,为常量,故Ω由P和的合力控制; SFMV故障会导致增大,从而改变P和合力的大小进而影响Ω的大小;P通过电子控制器的输出q控制,电子控制器采用PID方法进行控制,在PID控制器中额外添加一个前馈项,故电子控制器的输出变为: ; 其中,为燃油流量期望值与实际值之差,、和是PID控制律的控制增益,a是前馈项;通过添加前馈项a来改变q,进而改变P,从而改变Ω,最后模拟SFMV故障; 航空发动机工作过程中根据参考转速的变化分为参考转速的上升、不变和下降三个阶段;在参考转速上升和下降阶段,需要调整开度Ω来满足发动机所需的燃油流量,在参考转速不变阶段,燃油计量活门开度Ω不变,故不考虑该阶段的SFMV故障;在参考转速上升和下降阶段,根据发动机工作情况进一步将参考转速划分为等间隔的子工况区间,在每个子工况区间内加入不同大小的前馈值a来模拟不同程度的SFMV故障进而获取发动机在多工况条件下的SFMV故障数据; 步骤2:制作SFMV故障数据集; 通过参考转速的变化来反映不同程度的SFMV故障;参考转速曲线在加入前馈值的时刻开始发生波动,随着加入前馈值a的增大,即SFMV故障程度增大,参考转速曲线的波动幅度越大,到达目标转速的时间越长;由于不同故障程度下参考转速曲线的特征在于加入前馈项后参考转速曲线的波动幅度不同,故采用截取特征的方法,以固定窗口长度截取出不同参考转速曲线的波动部分,即将不同故障程度的参考转速特征曲线作为SFMV故障数据集; 步骤3:基于CNTR模型架构的SFMV故障诊断; 设计一种CNTR网络联合架构来建立SFMV故障诊断模型,具体为:首先发动机中的SFMV故障数据为一维序列数据,故利用一维卷积神经网络1D CNN对SFMV故障数据进行预处理,提取序列当中的故障特征并去除其中冗余信息;然后利用Transfomer网络中编码器Encoder的特征提取能力,通过多头注意力机制Multi‑Head Attention来定位SFMV故障信息段,将1D CNN输出的数据信息进一步特征提取,从而建立SFMV故障数据中的全局信息;网络架构具体如下: 在1D CNN执行前向传播时,具体的卷积过程如式4所示: ; 其中,和表示第层第个卷积核的权重和偏差,表示第层第个被卷积的区域,表示的输出; 当数据经过卷积层处理后,要继续经过最大池化层进行处理,对输入特征执行局部最大操作,其数学表达式如式5所示: ; 其中,表示第个通道下第层中的神经元,表示池化层的尺寸,表示经过池化层后的输出; 将1D CNN的输出数据作为Transformer网络中Encoder部分的输入;Encoder部分由若干个Encoder layer堆叠而成,每个Encoder layer由Multi‑Head Attention和前馈神经网络Feed Forward Network构成;在Encoder部分采用缩放点积自注意力机制Scaled Dot‑Product Attention完成序列建模,其具体过程如下;首先定义三个权值矩阵,,,将这三个矩阵和Encoder的输入以矩阵形式进行乘积运算,将得到的对应向量进行拼接得到注意力机制所需要的查询矩阵Q、键矩阵K和值矩阵V: ; ; ;其中,为Encoder的输入矩阵,,,,为输入向量的长度,为值矩阵维度,为键矩阵维度; 通过查询矩阵Q和键矩阵K相乘,获取每个输入向量的注意力权重分数,然后对于输入序列之间的相关性得分进行归一化,利用比例因子进行放缩,经过Softmax激活层后乘以值矩阵V得到输出: ; 其中,Attention为自注意力机制函数,Softmax为归一化指数函数; 为了提取输入序列中的多维特征信息,采用多头注意力机制;多头注意力机制是自注意力机制的基础上,使用多组,,来得到多组Q,K,V,然后每组分别计算自注意力机制函数并进行拼接: ; ; 其中,,, ,,表示第个头,为注意力机制头数; 将Transformer网络中Encoder部分提取出来的故障特征信息输入到全连接层进行分类,在输出层采用Softmax激活函数使网络的输出符合不同SFMV故障程度的概率分布。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人大连理工大学,其通讯地址为:116024 辽宁省大连市甘井子区凌工路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励