Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 合肥工业大学甘子昀获国家专利权

合肥工业大学甘子昀获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉合肥工业大学申请的专利基于时空分解编码器的多模态人脸呈现攻击检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116844213B

龙图腾网通过国家知识产权局官网在2025-12-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310888232.4,技术领域涉及:G06V40/16;该发明授权基于时空分解编码器的多模态人脸呈现攻击检测方法是由甘子昀;任钰悦;赵博皓;蒋荣强;杨守海;孙锐设计研发完成,并于2023-07-19向国家知识产权局提交的专利申请。

基于时空分解编码器的多模态人脸呈现攻击检测方法在说明书摘要公布了:本发明公开了一种基于时空分解编码器的多模态人脸呈现攻击检测方法,包括:1、获取多模态视频数据集中的样本并生成特征表示;2、构建特征转换器以生成空间嵌入表示,构建时空分解编码器以提取单模态特征,构建融合编码器以融合多模态特征,输入分类器中得到最终分类结果;3、构建集中对比损失和二元交叉熵损失,利用优化器进行训练并更新模型参数;4、输入待测视频对模型进行测试,确保模型能对真实人脸和呈现攻击人脸进行有效的区分。本发明能提高人脸呈现攻击检测的准确性和鲁棒性,从而确保人脸识别系统的安全性。

本发明授权基于时空分解编码器的多模态人脸呈现攻击检测方法在权利要求书中公布了:1.一种基于时空分解编码器的多模态人脸呈现攻击检测方法,其特征在于,包括以下步骤: 步骤1、获取多模态视频数据集中的视频样本并生成特征表示; 步骤1.1、记多模态视频数据集中任意一个视频样本为E={V|m=1,2,3},其中,V表示第m种模态的视频,当m=1时,V代表可见光视频,当m=2时,V代表深度视频,当m=3时,V代表红外视频;令视频样本E的真实类别记为时,表示视频样本E为真实人脸视频,当时,表示视频样本E为呈现攻击人脸视频; 步骤1.2、将V拆分为U段视频,即其中,代表第m种模态视频V的第u段视频; 由第m种模态视频的第u段视频生成特征表示其中,表示特征表示中的第k个特征矩阵,H为特征矩阵的行数,W为特征矩阵的列数;K为特征矩阵的数量; 步骤2、构建时空分解编码器网络,包括:特征转换器、3×U个空间编码器、3个时间编码器、1个融合编码器和分类器; 步骤2.1、所述特征转换器对特征表示进行处理,得到对应的空间嵌入表示 步骤2.2、第m种模态视频对应的第u个空间编码器对进行处理,得到第u个空间编码器输出的空间编码序列从而得到U个空间编码器输出的U个空间编码序列组成第m种模态对应的时间向量序列L1表示空间编码器的层数; 步骤2.3、所述时间编码器对Ztm进行处理,得到所述时间编码器输出的第m种模态的时间编码序列m=1,2,3;L2表示时间编码器的层数; 步骤2.4、所述融合编码器对进行处理,得到所述融合编码器输出的融合编码序列其中,当m=1,2,3时,代表第m种模态对应的融合编码器输出的融合编码序列;当m=0时,代表融合瓶颈对应的融合编码序列;并将中对应融合分类向量clsf的融合分类编码向量记为L3表示融合编码器的层数; 步骤2.5、所述分类器利用全连接层对clso进行处理,从而利用式9计算视频样本E对应正分类和负分类的概率P: P=sigmoidclso×ew+b9 式9中,为分类权重矩阵,b为维度为2的偏置向量; 所述分类器利用式10得到视频样本E最终的分类结果G: 式10中,pf1表示P中对应正分类的概率,G=1表示正分类结果,即真实人脸类别;G=0表示负分类结果,即呈现攻击人脸类别;σ表示阈值,且σ∈0,1; 步骤3、构建空间分解编码器网络的损失函数Ltotal: 步骤3.1、利用式11构建二元交叉熵损失LBCE: LBCE=-G×logpf1+1-G×log1-pf111 步骤3.2、构建集中对比损失LCCL: 由式12和式13构建第a个编码器对应的集中对比损失为 式12中,a=1,2,...,A,A表示总的编码器数量,且A=3×U+3+1;βa表示第a个编码器的系数,且βa∈0,1,Ca表示当前次迭代的中心向量,并在第一次迭代时初始化中心向量为零向量;Da为E在第a个编码器输出的分类编码向量clsaa和当前次迭代的中心向量Ca的欧氏距离,并由式13计算得到;bda表示第a个边界半径; 利用式14对Ca进行更新,得到下一次迭代的中心向量C’a: 式14中,α表示系数,且α∈0,1;代表当前次迭代中真实类别为1的第v个视频样本在第a个编码器输出的分类向量,V代表当前次迭代中真实类别为1的视频样本的总数; 步骤3.3、利用式15得到总的损失函数Ltotal: 式15中,γ,ε表示两个系数,且γ,ε∈0,1; 步骤3.4、使用优化器对时空分解编码器网络进行迭代训练,并计算总的损失函数Ltotal以更新网络参数,直至损失函数Ltotal收敛为止,从而得到最优参数的时空分解编码器模型,用于对多模态人脸视频进行检测,对真实人脸和呈现攻击人脸进行区分。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人合肥工业大学,其通讯地址为:230009 安徽省合肥市包河区屯溪路193号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。