湖南大学陈宇翔获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉湖南大学申请的专利一种基于曼巴模块的多模态图文深度伪造检测与定位方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119741552B 。
龙图腾网通过国家知识产权局官网在2025-09-23发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411874029.2,技术领域涉及:G06V10/764;该发明授权一种基于曼巴模块的多模态图文深度伪造检测与定位方法是由陈宇翔;秦拯;高诗慧;欧露;王敏设计研发完成,并于2024-12-18向国家知识产权局提交的专利申请。
本一种基于曼巴模块的多模态图文深度伪造检测与定位方法在说明书摘要公布了:本发明公开了一种基于曼巴模块的多模态图文深度伪造的检测与定位方法,包括多模态特征对齐模块、多模态特征融合模块和伪造区域检测与定位模块。该方法首先通过多模态特征对齐模块寻找同一个实例的不同数据模态之间的对应关系,随后在多模态特征融合模块内对特征充分融合,学习相互之间的特征表示,最后将融合后的特征输入伪造区域检测与定位模块,给出检测、区域定位以及伪造方法的具体信息。本发明可以有效检测多模态深度伪造信息,同时可以给出伪造区域以及伪造方式,本发明的使用可以防止虚假信息传播,确保信息来源的可靠性。
本发明授权一种基于曼巴模块的多模态图文深度伪造检测与定位方法在权利要求书中公布了:1.一种基于曼巴模块的多模态图文深度伪造检测与定位任务的方法,其特征在于,具有多模态特征对齐模块、多模态特征融合模块和伪造区域检测与定位模块,具体包括以下步骤: 步骤1,读取一批数据,设数据中图像与文本分别有k个,使用ViT模型编码图像的特征,将图像编码为v={vcls,v1,...,vN}的形式,使用BERT模型编码文本的特征,将文本编码为t={tcls,t1,...,tN}的形式; 步骤2,对提取的图像特征和文本特征进行特征对齐操作,计算图像与其对应文本的相似度sI,T+,图像与非对应文本的相似度sI,T-及文本与图像相似度sT+,I,sI,T-、图像与图像相似度sI,I+,sI,I-、文本与文本相似度sT,T+,sT,T-的相似度,计算图像文本对齐损失函数 步骤3,定义图像文本特征融合模块Aggregator,输入为图像特征v和文本特征t,输出为融合后的特征,其中图像特征为 v′=Aggregatorv,t={v′cls,v′1,...,v′N} 文本特征为 t′=Aggregatorv,t={t′cls,t′1,...,t′N}; 步骤4,使用多层感知机定义真假分类器Cb,输入为图像特征v′和文本特征t′,输出为对数据真实性的预测Db,利用预测值Db与真实值yb计算真假二分类损失,损失函数为 LBIC=EI,T~PCrossEntropyDb,yb; 步骤5,定义图像特征聚合器Aggregator,输入为图像特征v′中的{v′1,...,v′N}部分,输出为聚合后的特征v′agg,使用多层感知机定义图像伪造定位器Gv,输入为聚合后的特征v′agg,输出为图像伪造区域的具体位置的预测Dv,计算方式为Dv=Gvv′agg,利用预测值Dv与真实值ybox计算图像定位损失,损失函数为 LIMG=EI,T~P[||SigmoidDv-ybox||+LCIoUSigmoidDv-ybox]; 步骤6,使用多层感知机定义伪造方法分类器Cm,输入为融合后的图像特征v′中的{v′1,...,v′N}部分和文本特征t′中的{t′1,...,t′N}部分,输出为篡改数据的具体的篡改方法的预测Dm,利用预测值Dm与真实值ym计算篡改方法分类损失,损失函数为 LMIC=EI,T~PCrossEntropyDm,ym; 步骤7,使用多层感知机定义文本伪造定位器Gt,输入为融合后的文本特征中的{t′1,...,t′N},输出为对文本伪造区域的具体位置的预测Dt,利用预测值Dt与真实值yt计算文本定位损失,损失函数为 LTMG=EI,T~PCrossEntropyDt,yt; 步骤8,计算模型损失函数L,计算方式为L=λ1LITA+λ2LBIC+λ3LIMG+λ4LMLC+λ5LTMG,其中λ1、λ2、λ3、λ4、λ5是控制各项损失所占比例的超参数; 重复步骤1至步骤8,直到达到设置的指定训练轮次,得到最终的全局模型。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人湖南大学,其通讯地址为:410082 湖南省长沙市岳麓区麓山南路麓山门;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励