杭州电子科技大学;中电数据服务有限公司张继勇获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉杭州电子科技大学;中电数据服务有限公司申请的专利一种基于GNN和Transformer模型的网络建模方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119558346B 。
龙图腾网通过国家知识产权局官网在2025-10-21发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411641589.3,技术领域涉及:G06N3/042;该发明授权一种基于GNN和Transformer模型的网络建模方法是由张继勇;陈晨;周晓飞;唐江平;鲍柳昕;李世峰;何帆设计研发完成,并于2024-11-18向国家知识产权局提交的专利申请。
本一种基于GNN和Transformer模型的网络建模方法在说明书摘要公布了:本发明涉及一种基于GNN和Transformer模型的网络建模方法,首先进行数据集的生成和预处理,构建消息传递神经网络;消息传递神经网络包括GNN级联模块,Transformer级联模块和特定指标读出模块三部分;然后训练网络,最后将预处理后的测试集图像输入训练好的网络模型中,得到预测图,并与真值进行比较,计算各项评价指标。本发明能更好地捕获全局依赖关系,从而得到更全面的数据表示,同时了提高模型泛化能力和计算效率。
本发明授权一种基于GNN和Transformer模型的网络建模方法在权利要求书中公布了:1.一种基于GNN和Transformer模型的网络建模方法,其特征在于:包括以下步骤: 步骤一:数据收集:收集在模拟中生成或是实际工作中的包含不同网络拓扑结构、流量模型、路由配置和队列调度策略的网络样本,并记录每个网络样本中所有流的平均延迟、抖动和丢包率,以及队列级统计信息; 步骤二:数据预处理:将网络样本转换为图结构,其中节点表示网络设备,边表示连接设备之间的链路,同时为每个节点和边提取特征,如流量特征、链路容量、队列大小和队列优先级; 步骤三:构建消息传递神经网络:消息传递神经网络包括GNN级联模块,Transformer级联模块和特定指标读出模块三部分,使用不同的函数初始化流、队列和链路的隐藏状态,将流、队列和链路特征编码为固定大小的向量,代表特征嵌入,使用GNN网络进行T次消息传递迭代,每个迭代包括三个阶段:流的隐藏状态消息传递和更新、队列的隐藏状态消息传递和更新、链路的隐藏状态消息传递和更新,接着将这些特征输入到Transformer网络中,利用其自注意力机制进一步处理特征或学习图之间的依赖关系,使用读出函数计算每个流的性能指标; 所述GNN级联模块由多个循环神经网络构建流向队列,同时使用自回归算法对网络内部和外部进行多次循环后输出到Transformer级联模块, 将GNN级联模块提取到的图特征输入到Transformer级联模块,级联Transformer模块由数个共享参数的Transformer块组成,Transformer块由一个多头自注意力机制网络和一个前馈网路组成,通过自注意力机制来计算特征的长距离依赖关系,每个输入特征首先被展开为一个一维序列,每个序列通过一个可训练的线性投影层映射到一个潜在的D维嵌入空间,特定的位置嵌入被学习并添加到补丁嵌入,保留位置信息,添加位置信息后的补丁经过线性层生成查询向量矩阵、键向量矩阵和值向量矩阵三个矩阵,再将三个矩阵送入多头注意力机制操作来计算相互之间的注意力, 步骤四:训练网络:将预处理后的训练集划分为训练集和验证集,训练模型和评估模型性能,将训练集图像输入消息传递神经网络中,经过GNN级联模块,Transformer级联模块和特定指标读出模块三部分,生成对每个流的性能指标的预测;再使用验证集计算均方误差和系数决定进行损失计算,反向传播,通过选定的优化器和相应对应参数对权重进行优化,进行多次训练后得到网络模型; 步骤五:模型评估:使用未见过的网络样本评估模型预测网络性能的泛化能力,包括不同的拓扑结构、流量模型和路由配置,并与真值进行比较,计算各项评价指标。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人杭州电子科技大学;中电数据服务有限公司,其通讯地址为:310018 浙江省杭州市钱塘区白杨街道2号大街1158号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励