西安电子科技大学郑洋获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉西安电子科技大学申请的专利基于Transformer的眼动事件检测方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN115410266B 。
龙图腾网通过国家知识产权局官网在2025-07-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202210845526.4,技术领域涉及:G06V40/18;该发明授权基于Transformer的眼动事件检测方法是由郑洋;梁一唯;梁继民;郭开泰;胡海虹;任胜寒;王梓宇设计研发完成,并于2022-07-18向国家知识产权局提交的专利申请。
本基于Transformer的眼动事件检测方法在说明书摘要公布了:本发明公开了一种基于Transformer的眼动事件检测方法,包括以下步骤:对原始视线位置时间序列进行预处理;采用CNN网络对输入序列进行特征提取以获得字向量;对视线位置序列进行位置编码来表征序列的位置信息;采用Transformer学习眼动序列的全局特征,并使用全连接和Softmax将输入序列任意时刻预测为注视、眼跳和眼跳后震荡三个基本事件类型;采用事件级Cohen’sKappa来评估性能。相比LSTM,Transformer可以有效地建立长序列上不同时刻观测之间的长期依赖关系且可以实现序列处理的高度并行化。从性能评估结果来看,本发明可以达到一个很好的眼动事件检测效果。
本发明授权基于Transformer的眼动事件检测方法在权利要求书中公布了:1.基于Transformer的眼动事件检测方法,其特征在于:包括以下步骤: 步骤1、输入数据为公开眼动事件检测数据集,对原始视线位置序列数据进行预处理,得到差分视线位置序列; 步骤2、将差分视线位置序列送入CNN网络中进行特征提取,CNN网络的输出作为字向量WordEmbedding; 步骤3、对视线位置序列进行位置编码PositionalEncoding,以表征视线位置序列的前后位置信息; 步骤4、将字向量与位置编码相加之后得到送入Transformer的Encoder层,经过N层Encoder之后学习到涵盖序列全局的信息,最后经过线性全连接层和Softmax将眼动序列中每一时刻的样本点分类为注视、眼跳和眼跳后震荡,实现眼动事件检测; 步骤4所述的Transformer层参数为4层Encoder,每个Encoder层分为两个子层,第一层使用Self-Attention机制,第二层使用一个前馈神经网络层,其中字向量的维度是64维,前馈神经网络的维度是256维; 其中Self-Attention机制定义了三个矩阵、、,使用这三个矩阵分别对所有的字向量进行三次线性变换,于是所有的字向量又衍生出三个新的向量、、,将所有的向量拼成一个大矩阵,记作查询矩阵,所有的向量拼成一个大矩阵,记作键矩阵,所有的向量拼成一个大矩阵,记作值矩阵;接下来将和相乘,然后除以,经过Softmax之后与相乘得到Self-Attention的输出,具体公式实现如下: 其中是Self-Attention的输出,是查询矩阵,是键矩阵,是值矩阵,是键矩阵的维度; 步骤5、使用事件级Cohen’sKappa来对分类后的三种眼动事件进行性能评估。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学,其通讯地址为:710071 陕西省西安市雁塔区太白南路2号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。