哈尔滨工业大学余翔湛获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉哈尔滨工业大学申请的专利一种网络流量多任务增量预训练模型架构设计方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119544354B 。
龙图腾网通过国家知识产权局官网在2025-09-09发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411751420.3,技术领域涉及:H04L9/40;该发明授权一种网络流量多任务增量预训练模型架构设计方法是由余翔湛;谷杰铭;刘奉哲;刘立坤;胡智超;葛蒙蒙;秦浩伦;李卓凌;刘海心;宋晨;王邦国;牟铎;张垚;张靖宇;周杰;傅言晨;李岱林设计研发完成,并于2024-12-02向国家知识产权局提交的专利申请。
本一种网络流量多任务增量预训练模型架构设计方法在说明书摘要公布了:本发明公开了一种网络流量多任务增量预训练模型架构设计方法,属于网络安全检测技术领域。解决了现有技术中传统的多任务深度神经网络框架无法随网络环境动态变化保持对新任务的高精度判别能力的问题;本发明构建了预训练模型与共有知识表示层分离的、引入特定任务表示层的多任务增量预训练模型架构;对多任务增量预训练模型架构中的预训练模型进行训练,得到训练后的多任务增量预训练模型架构;对训练后的多任务增量预训练模型架构进行微调,根据设置的共有知识表示层架构和特定任务表示层架构,得到最终的多任务增量预训练模型架构。本发明有效提升了网络流量检测的泛化能力、稳定性和检测效果,可以应用于复杂多变的网络环境下的网络流量检测。
本发明授权一种网络流量多任务增量预训练模型架构设计方法在权利要求书中公布了:1.一种网络流量多任务增量预训练模型架构设计方法,其特征在于,包括以下步骤: S1.构建预训练模型与共有知识表示层分离的、引入特定任务表示层的多任务增量预训练模型架构; 具体的,多任务增量预训练模型架构包括预训练模型、共有知识表示层和特定任务知识层,将预训练模型和共有知识表示层进行分离,预训练模型作为一个独立的模块,共有知识表示层与特定任务知识层连接; S2.对多任务增量预训练模型架构中的预训练模型进行训练,得到训练后的多任务增量预训练模型架构; S3.对训练后的多任务增量预训练模型架构进行微调,根据设置的共有知识表示层架构和特定任务表示层架构,得到最终的多任务增量预训练模型架构; 所述S3中,包括以下步骤: S31.设置共有知识表示层架构; S32.设置特定任务知识层架构; 所述S31中,提取后的数据汇集的每条网络流在经过预训练模型处理后,生成一个尺寸为1×768的特定网络流的特征向量,记为第一特征向量,共有知识表示层表示一个尺寸为192×768的矩阵,将第一特征向量添加到共有知识表示层的末尾,实现第一特征向量与共有知识表示层的融合,得到第一融合矩阵,其尺寸为193×768,其中,前192行为原有的共有知识表示层表示的矩阵的行,最后1行为第一特征向量; 利用注意力机制对第一融合矩阵进行注意力计算,生成第一查询向量、第一键向量和第一值向量; 根据第一查询向量、第一键向量和第一值向量,计算得到第一注意力矩阵A,并将第一注意力矩阵与第一值向量相乘,得到共有知识表示层的输出向量,其尺寸为1×768; 所述S32中,提取后的数据汇集的每条网络流在经过预训练模型处理后,结合共有知识表示层,生成一个尺寸为1×768的特征向量,记作第二特征向量,特定任务知识层表示一个尺寸为×768的矩阵,其中,表示当前任务的数量,将第二特征向量与特定任务知识层在第一个维度上进行拼接,得到拼接后的特定任务和共享知识的矩阵,其维度为n+1×768,对于每个任务,提取与任务对应的一维特定任务知识向量,记作特定知识向量,使用特定知识向量与共享知识进行注意力计算,生成第二查询向量、第二键向量和第二值向量。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人哈尔滨工业大学,其通讯地址为:150001 黑龙江省哈尔滨市南岗区西大直街92号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。
请提出您的宝贵建议,有机会获取IP积分或其他奖励