北京航空航天大学陆峰获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉北京航空航天大学申请的专利一种增强现实中眼手协同三维操控方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116185194B 。
龙图腾网通过国家知识产权局官网在2026-03-17发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310152606.6,技术领域涉及:G06F3/01;该发明授权一种增强现实中眼手协同三维操控方法是由陆峰;王嘉茜;鲍屹伟设计研发完成,并于2023-02-22向国家知识产权局提交的专利申请。
本一种增强现实中眼手协同三维操控方法在说明书摘要公布了:本公开的实施例公开了一种增强现实中眼手协同三维操控方法。该方法的一具体实施方式包括:计算初始通用眼动参数,以及对新用户执行隐式校准以获取用户瞳孔坐标原点,计算用户注视点;采集三维交互空间中的隐式校准样本点,使用最新的样本点集和初始收集的通用校准数据集代入眼动估计模型;用户通过捏合手势控制指示器越过遮挡物,用户释放手势,则会选中一定范围内离指示器最近的物体;用户先通过捏合手势调整视线方向对齐想要放置物体的目标位置,释放手势后,视线方向固定,然后用户再次保持捏合手势控制物体沿着固定的视线方向移动到目标位置,释放手势。该实施方式可以有效解决遮挡问题,不需要多次重复操作移开遮挡物,提高了交互效率。
本发明授权一种增强现实中眼手协同三维操控方法在权利要求书中公布了:1.一种增强现实中眼手协同三维操控方法,包括: 对多名用户进行九点显式校准收集通用校准数据集,计算初始通用眼动参数,以及对新用户执行隐式校准以获取用户瞳孔坐标原点,计算用户注视点; 利用眼手协同交互线索,采集三维交互空间中的隐式校准样本点,使用隐式校准样本点集和初始收集的通用校准数据集代入眼动估计模型,在线对用户的眼动参数实时更新,其中,所述眼动估计模型通过以下多项式眼动估计模型表示: , , 其中,和表示未知系数,可通过解算上述多项式组得到一组和的结果,作为初始通用眼动参数,表示瞳孔中心坐标的数量,表示第个瞳孔中心坐标; 用户通过捏合手势控制指示器越过遮挡物,使遮挡物变得透明从而显示出被遮挡的目标物体,用户释放手势,则会选中一定范围内离指示器最近的物体,其中,所述指示器为具象化的注视点; 用户先通过捏合手势调整视线方向对齐想要放置的物体的目标位置,此时视线方向以白色光束形式展现,释放手势后,视线方向固定,然后用户再次保持捏合手势控制物体沿着固定的视线方向移动到目标位置,释放手势; 其中,所述对多名用户进行九点显式校准收集通用校准数据集,计算初始通用眼动参数,以及对新用户执行隐式校准以获取用户瞳孔坐标原点,计算用户注视点,包括: 对n名用户通过九点显式校准方法收集了每名用户的校准样本数据集,组成通用校准数据集,每条通用校准数据包括用户的瞳孔中心坐标和校准点位置,当每名用户看向屏幕中心点时,用户此时的瞳孔坐标为坐标原点,瞳孔中心坐标是用户看向屏幕任意点时的瞳孔坐标与该原点的相对值; 对新用户的隐式校准是将屏幕中心点作为校准点,引入到了用户交互中; 将通用校准数据集和校准点代入眼动估计模型得到参数解,用该参数初始化眼动估计模型; 在交互中对用户的每帧近眼图像,采用用户自身的用户瞳孔坐标原点,获取瞳孔中心坐标; 将所述瞳孔中心坐标输入至初始化后的眼动估计模型,以生成用户注视点X,Y。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励