成都信息工程大学;成都考拉悠然科技有限公司贾可获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉成都信息工程大学;成都考拉悠然科技有限公司申请的专利基于聚类的具有循环动作视频的时序动作定位方法、装置及存储介质获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119763187B 。
龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202411821505.4,技术领域涉及:G06V40/20;该发明授权基于聚类的具有循环动作视频的时序动作定位方法、装置及存储介质是由贾可;周记;王文润;周治淦;沈复民;申恒涛设计研发完成,并于2024-12-11向国家知识产权局提交的专利申请。
本基于聚类的具有循环动作视频的时序动作定位方法、装置及存储介质在说明书摘要公布了:本发明公开了一种基于时序建模的循环动作视频时序动作定位方法、装置及存储介质,该方法一是通过自监督训练和域对抗迁移学习进行视频特征提取,二是利用聚类算法进行高效的动作定位。与现有技术相比,本发明能够更准确地捕捉动作的本质属性,显著提高了动作定位的准确性和泛化能力;本发明采用基于聚类的时序动作定位方法,该方法结合了创新特征提取技术,能够有效地识别视频中的循环动作时序结构,并精确确定动作的起始和结束帧,该方法的引入,不仅提高了动作定位的准确性,而且由于特征提取的效率和质量的提升,增强了整体处理效率。
本发明授权基于聚类的具有循环动作视频的时序动作定位方法、装置及存储介质在权利要求书中公布了:1.基于聚类的具有循环动作视频的时序动作定位方法,其特征在于:所述方法包括: 步骤S1:收集循环动作视频数据,并对视频进行预处理以突出动作特征,预处理后的视频按动作类别分类存储;逐帧提取图像,并按原视频名称组织存储;同时对视频进行标注,详细拆分并标记每个动作的起始和结束时间,确保数据的准确性和可用性; 步骤S2:进行模型设计与自监督训练,通过对比损失函数进行自监督学习,以增强模型对视频片段时序特征的学习能力;所述步骤S2中,首先设计一个基于时间对比学习的神经网络模型,该模型包括编码器和投影头,编码器用于提取视频片段的特征向量,投影头将特征向量映射到一个低维空间,以便进行对比学习,具体步骤如下: 对于视频V,从同一视频中提取不同时间段的片段生成正样本对,从不同视频中提取时间片段生成负样本对; 将正样本对和负样本对的特征向量通过投影头映射到低维空间,分别记为、和、,接着计算它们的相似度矩阵,使用余弦相似度公式计算特征向量之间的相似度,下式中代表正样本相似度,代表负样本相似度: ; ; 定义对比损失函数InfoNCEloss,用于最大化正样本对的相似性,同时最小化负样本对的相似性,计算公式为: ; 其中,表示第个样本和第个样本的损失值,是指示函数,当时取值为1,为温度参数;根据对比损失函数对相似度矩阵进行优化,在每一轮训练中,利用对比损失函数对模型参数进行更新,确保模型能够准确学习视频片段的时序特征; 步骤S3:训练特征提取器,添加平滑性约束条件以实现视频特征在时间序列上的平滑性,减少定位误差;同时融入了域对抗迁移学习机制,用于提高特征提取器在不同域之间的泛化能力,确保在迁移学习过程中特征的一致性和准确性;所述步骤S3中,根据视频的总帧数和剪辑长度计算出每帧的间隔,并计算相应的偏移量,确保视频帧按顺序送入网络进行训练,其公式为: ; 其中下标i表示第i个偏移量,对于所有i=0,1,2,…,-1;通过设置一个数据加载器,通过该加载器每次从数据集中选取视频,按照视频的时序,按批次将每个视频的帧序列送入模型进行训练; 步骤S4:使用步骤S1中标注好的数据集对特征提取器进行微调; 步骤S5:从每个视频中选取具有代表性的帧图像,以便利用训练好的特征提取器,提取出视频的特征; 步骤S6:通过对提取的特征进行聚类分析,识别视频中的动作时序结构,并确定动作的起始和结束帧; 步骤S7:通过检测特征序列中的周期性模式,识别出重复出现的类别序列,将其确定为循环动作,并对于这些周期性类别序列,判定每个循环动作的开始和结束边界。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人成都信息工程大学;成都考拉悠然科技有限公司,其通讯地址为:610225 四川省成都市西南航空港经济开发区学府路一段24号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。