Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京大学许封元获国家专利权

南京大学许封元获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京大学申请的专利一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120893051B

龙图腾网通过国家知识产权局官网在2025-12-05发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511416625.0,技术领域涉及:G06F21/57;该发明授权一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法是由许封元;吴昊;李骁;李岳;章惠民设计研发完成,并于2025-09-30向国家知识产权局提交的专利申请。

一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法在说明书摘要公布了:本发明公开了一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法,包括对样本代码数据集进行函数级注意力计算,生成高注意力函数代码数据集,从高注意力函数代码数据集的每个函数级注意力源码文件中挑选最高注意力函数并补全编译依赖项形成高注意力代码片段。通对样本代码数据集进行函数级注意力计算,借助降维算法提升注意力计算效率;挑选高注意力函数并补全编译依赖项,使得高注意力函数能够顺利编译,提高隐蔽性;该方法具有显著的跨模型适用性和多编程语言兼容性,能够有效降低大语言模型在代码漏洞检测任务上的准确率,具有提升漏洞代码隐蔽性的优点。

本发明授权一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法在权利要求书中公布了:1.一种基于干扰注意力的针对基于大语言模型漏洞审计工具的攻击方法,其特征在于,包括以下步骤: S1、对样本代码数据集进行函数级注意力计算,生成高注意力函数代码数据集,其中,样本代码数据集包含若干个样本源码文件C;具体地,每个样本源码文件C中包含若干函数,以及若干行,高注意力函数代码数据集包含若干个函数级注意力源码文件C’,其中,每个函数级注意力源码文件C’包含函数对应的函数级注意力; 所述步骤S1的具体步骤为: S11、原始注意力生成:大语言模型对样本源码文件C的原始注意力张量为,其中,T表示大语言模型对C进行分词后C的token数量,L表示大模型的Transformer层数,H表示大模型的注意力多头的数量; S12、层级注意力生成:首先,将原始注意力按第四维进行求和,得到多头整合注意力;然后,使用第一维T个tokens中最后一个token作查询键,第二维的T个tokens作被查询键,选取第一维T个tokens中最后一个token所对应的二维张量,得到所有token的层级注意力; S13、行级注意力生成:将层级注意力中第一维T个tokens按所在行的索引进行求和,得到一维的行级注意力;然后,将一维的行级注意力的第一维进行求和,合并所有注意力层,得到每一行的行级注意力,其中,i∈[1,M]; S14、函数级注意力生成:将行级注意力按每行所属函数进行求和,得到每个函数的函数级注意力,其中,j∈[1,N]; S15、对样本代码数据集中每个样本源码文件C执行S11~S14得到函数级注意力源码文件C’,形成高注意力函数代码数据集; S2、从高注意力函数代码数据集的每个函数级注意力源码文件C’中挑选最高注意力函数并补全编译依赖项形成高注意力代码片段; S3、将补全编译依赖后的高注意力代码片段与漏洞代码数据集集成后提交给基于大语言模型的漏洞审计工具进行审计,评估攻击成功率。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京大学,其通讯地址为:210000 江苏省南京市鼓楼区湖南路街道汉口路22号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。