慧芯加(苏州)智能科技有限公司何佳帆获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉慧芯加(苏州)智能科技有限公司申请的专利一种面向掩埋场景的人体姿态检测方法、系统及电子设备获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN121661682B 。
龙图腾网通过国家知识产权局官网在2026-04-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202610171975.3,技术领域涉及:G06V40/10;该发明授权一种面向掩埋场景的人体姿态检测方法、系统及电子设备是由何佳帆;魏世峰设计研发完成,并于2026-02-06向国家知识产权局提交的专利申请。
本一种面向掩埋场景的人体姿态检测方法、系统及电子设备在说明书摘要公布了:本发明涉及智能识别技术领域,具体涉及一种面向掩埋场景的人体姿态检测方法、系统及电子设备。方法包括:通过低照度图像采集设备与自适应调整亮度的照明设备协同采集掩埋场景视频帧;将视频帧缩至标准尺寸并自适应调亮,生成预处理图像;将其输入经多教师协同蒸馏框架训练的学生模型,经后处理优化输出人体关键点坐标、检测框坐标及各自置信度;提取关节角度、骨骼长度比例、关键点空间分布三类几何特征向量,输入分类网络得到姿态检测结果。本发明有效克服了低照度、遮挡等场景干扰,精准识别部分掩埋姿态,满足便携部署与实时响应需求,为灾后救援提供高效数据支撑,提升救援效率并降低误判漏判风险。
本发明授权一种面向掩埋场景的人体姿态检测方法、系统及电子设备在权利要求书中公布了:1.一种面向掩埋场景的人体姿态检测方法,其特征在于,包括: 通过低照度的图像采集设备与自适应调整亮度的照明设备采集掩埋场景的视频帧; 将视频帧的图像缩小至标准尺寸,并自适应调整图像亮度,得到预处理图像; 将预处理图像输入训练好的学生模型中,经过后处理优化后输出人体关键点坐标、检测框坐标以及各自的置信度;所述训练好的学生模型通过多教师协同蒸馏框架训练得到,所述多教师协同蒸馏框架基于教师模型组和多维度融合损失函数,经迭代蒸馏训练更新学生模型参数; 基于人体关键点坐标提取几何特征向量,将几何特征向量输入分类网络,得到姿态检测结果;所述几何特征向量包括关节角度特征、骨骼长度比例特征和关键点空间分布特征; 所述教师模型组包括主教师模型和至少一个辅助教师模型,主教师模型输出包括硬标签、软标签以及中间层特征,辅助教师模型输出软标签和中间层特征;所述硬标签为人体关键点坐标、检测框坐标以及各自的置信度,所述软标签为姿态分类概率分布的KL散度;所述中间层特征是模型中间层输出的特征图; 所述多维度融合损失函数包括硬标签损失、软标签损失和特征蒸馏损失; 所述硬标签损失为学生模型与主教师模型输出的人体关键点坐标、检测框宽高之间的置信度加权均方误差,计算方法是通过主教师模型输出的人体关键点置信度对各误差项进行加权求和,并除以人体关键点数量,即可得到硬标签损失;所述硬标签损失计算公式为: , 其中,为硬标签损失;N为人体关键点数量;为主教师模型人体关键点置信度;x、y为人体关键点坐标;w和h为检测框宽高;上标s代表学生模型,t代表主教师模型; 所述软标签损失为学生模型与主教师模型、学生模型与辅助教师模型的姿态分类概率分布的KL散度均值;所述软标签损失计算公式为: ; 其中,为软标签损失;K代表主教师模型和辅助教师模型的总数量;C是指姿态类型数量;代表学生模型对第c种姿态分类的概率;代表第k个教师模型对第c种姿态分类的概率; 所述特征蒸馏损失为学生模型与主教师模型对应中间层输出的特征图的余弦相似度损失;所述特征蒸馏损失计算公式为: , 其中,为特征蒸馏损失;M指特征层的数量;为学生模型第m层的特征图,为主教师模型第m层的特征图。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人慧芯加(苏州)智能科技有限公司,其通讯地址为:215000 江苏省苏州市相城区元和街道宣公路688号河海大学苏州研究院科技楼615、616、617室;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励