Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京邮电大学;北京卓视智通科技有限责任公司吴柯维获国家专利权

北京邮电大学;北京卓视智通科技有限责任公司吴柯维获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京邮电大学;北京卓视智通科技有限责任公司申请的专利基于多模型聚合的动作识别方法、系统、设备和存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119360434B

龙图腾网通过国家知识产权局官网在2026-01-30发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411255283.4,技术领域涉及:G06V40/20;该发明授权基于多模型聚合的动作识别方法、系统、设备和存储介质是由吴柯维;何晓罡;李睿哲;肖立;门爱东设计研发完成,并于2024-09-09向国家知识产权局提交的专利申请。

基于多模型聚合的动作识别方法、系统、设备和存储介质在说明书摘要公布了:本发明涉及计算机视觉技术领域,具体公开一种基于多模型聚合的动作识别方法、系统、设备和存储介质,包括:获取目标域的每个样本视频对应的多个目标路径权重和聚合动作识别结果;基于每个样本视频对应的动作识别标签、聚合动作识别结果、实例级可转移性估计指标的量化值以及多个目标路径权重,计算损失值并迭代优化;将待测视频输入至训练好的路径生成网络,得到待测视频对应的多个目标路径权重,并根据待测视频对应的多个目标路径权重及相应训练好的源域模型,得到待测视频的聚合动作识别结果。本发明的方法通过提升源域模型到目标域场景的适应能力,从而提高了模型在目标域场景下的动作识别准确性。

本发明授权基于多模型聚合的动作识别方法、系统、设备和存储介质在权利要求书中公布了:1.一种基于多模型聚合的动作识别方法,其特征在于,包括: S1、将目标域的任一样本视频输入至初始路径生成网络,得到任一样本视频对应的N个路径权重,并将最小路径权重之外的所有路径权重均确定为目标路径权重;其中,,每个路径权重分别对应一个用于动作识别的筛选后的源域模型;初始路径生成网络为未经训练的路径生成网络,路径生成网络为标准C3d网络,包含8个卷积层,5个最大池化、2个全连接层和1个softmax输出层;softmax输出层输出3个路径权重,将最小的路径权重记为0,保留剩余的路径权重并确定为目标路径权重;路径生成网络使用如下的公式进行计算路径权重:;为路径权重的数量,为第i个样本视频对应的N个路径权重,为第i个样本视频对应的N-1个目标路径权重; S2、将所述任一样本视频分别输入至每个目标路径权重对应的筛选后的源域模型,得到所述任一样本视频对应的多个第一动作识别结果,并基于所述任一样本视频对应的每个第一动作识别结果以及相应的目标路径权重,得到所述任一样本视频对应的聚合动作识别结果; S3、重复执行S1-S2,得到所述目标域的每个样本视频对应的多个目标路径权重和聚合动作识别结果; S4、基于每个样本视频对应的动作识别标签、聚合动作识别结果、实例级可转移性估计指标的量化值以及多个目标路径权重,计算并根据当前损失值,并基于所述当前损失值,对筛选后的源域模型的参数进行优化,得到优化后的源域模型,并根据每个样本视频对应的实例级可转移性估计指标的量化值,对所述初始路径生成网络的参数进行优化,得到优化路径生成网络; S5、将所述优化路径生成网络作为所述初始路径生成网络、所述优化后的源域模型作为所述筛选后的源域模型,并返回执行S3,直至满足迭代优化条件时,将所述初始路径生成网络确定为训练好的路径生成网络、所述筛选后的源域模型确定为训练好的源域模型; S6、将待测视频输入至所述训练好的路径生成网络,得到待测视频对应的目标路径权重,并将所述待测视频分别输入至每个目标路径权重对应的训练好的源域模型,得到所述待测视频对应的多个第一动作识别结果,并基于所述待测视频对应的每个第一动作识别结果以及相应的目标路径权重,得到所述待测视频对应的聚合动作识别结果; 还包括:确定每个源域模型分别与所述目标域之间的可转移性的量化值,并按照量化值的大小进行降序排序,得到目标队列;将所述目标队列的前N个量化值分别对应的源域模型确定为筛选后的源域模型; 确定任一源域模型与所述目标域之间的可转移性的量化值的步骤,包括: 基于第一目标公式,确定所述任一源域模型与所述目标域之间的可转移性的量化值;其中,所述第一目标公式为:;,,,;表示任一源域模型与所述目标域之间的可转移性的量化值,表示所述目标域的第i个样本视频,表示输入至所述任一源域模型所得到的输出结果,表示计算的熵,表示无源域可转移估计指标的量化值,表示时间一致性的量化值,表示所述任一源域模型的实例个体确定性的量化值,表示计算不同取值的的数学期望,表示对进行时间扰动处理后的视频,表示所述目标域的样本集,表示计算不同取值的的平均值,表示计算不同取值的的平均值,表示样本视频的预测语义,表示样本视频的伪标签,表示计算的KL散度,表示在c类上的预测概率; 获取任一样本视频对应的实例级可转移性估计指标的量化值的步骤,包括: 基于第二目标公式,计算任一样本视频对应的实例级可转移性估计指标的量化值;其中,所述第二目标公式为:;表示第i个样本视频对应的实例级可转移性估计指标的量化值,表示对进行softmax归一化处理; 基于每个样本视频对应的动作识别标签、聚合动作识别结果、实例级可转移性估计指标的量化值以及多个目标路径权重,计算当前损失值的步骤,包括: 将每个样本视频对应的动作识别标签、聚合动作识别结果、实例级可转移性估计指标的量化值以及多个目标路径权重代入目标损失函数,计算得到所述当前损失值;其中,所述目标损失函数为:,;表示为所述当前损失值,为超参数,表示根据每个样本视频对应的动作识别标签和聚合动作识别结果所得到的原始损失,表示权重损失,n表示样本视频的数量,表示第i个样本视频的多个目标路径权重。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京邮电大学;北京卓视智通科技有限责任公司,其通讯地址为:100876 北京市海淀区西土城路10号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。