Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 重庆理工大学肖汉光获国家专利权

重庆理工大学肖汉光获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉重庆理工大学申请的专利一种交叉过滤transformer的结构、图像语义分割模型及方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116644782B

龙图腾网通过国家知识产权局官网在2025-11-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310463471.5,技术领域涉及:G06N3/0455;该发明授权一种交叉过滤transformer的结构、图像语义分割模型及方法是由肖汉光;李利;刘启源;赵时逸设计研发完成,并于2023-04-26向国家知识产权局提交的专利申请。

一种交叉过滤transformer的结构、图像语义分割模型及方法在说明书摘要公布了:本发明公开了一种交叉过滤transformer的结构,包括特征嵌入、多头交叉注意和前馈神经网络,获取当前层的特征图F1和上一层的特征图F2,特征图F1的大小为H,通道为C,特征图F2的大小为H*2,通道是C2;特征图F1和特征图F2分别为输入;通过2D卷积层将两个分支的特征图F1和特征图F2转换为低维特征向量,分别将特征图F1和特征图F2展平为1D序列,将输入序列划分为多个子序列,然后在不同的子空间中计算子序列的注意力,接着将每一个注意力的输出作为头,并将所有的头拼接在一起;在前馈神经网络中,使用2D卷积来代替完连接层。解决了U‑Net中原始跳跃连接无法降低编码器与解码器之间的语义差距问题。

本发明授权一种交叉过滤transformer的结构、图像语义分割模型及方法在权利要求书中公布了:1.一种交叉过滤transformer的结构,其特征在于:包括特征嵌入、多头交叉注意和前馈神经网络,特征嵌入表示将输入的图像数据转换为一个向量空间中的表示,使模型处理数据之间的语义信息;多头交叉注意力表示在transformer中使用的一种交叉注意力机制,处理数据之间的局部相关性和全局相关性;前馈神经网络表示transformer中的一个基本组件,帮助模型学习数据的非线性特征; 获取当前层的特征图F1和上一层的特征图F2,特征图F1的大小为H,通道为C,特征图F2的大小为H*2,通道是C2;特征图F1和特征图F2分别为输入; 通过2D卷积层将两个分支的特征图F1和特征图F2转换为低维特征向量,然后分别将特征图F1和特征图F2展平为1D序列,特征嵌入表示为: Si=FlattenConvFi+Posi1 Xi=LNSi2 其中,i=1,2,Conv是卷积运算,Posi是Fi对应的位置编码,LN是LayerNormalization,Xi表示MHCA的输入序列,将输入序列划分为多个子序列,然后在不同的子空间中计算子序列的注意力,接着将每一个注意力的输出作为头,并将所有的头拼接在一起: MHCAOX1,X2=LinearConcatHead1,...,Headh4 其中,h表示头的数量,Head表示头,Q,K,V分别表示查询、键和值,dk表示子空间的维度,Concat表示连接操作,Linear代表线性层,MHCAO是MHCA的输出,在前馈神经网络中,使用2D卷积来代替完连接层,整体结构的表达式如下: CFTrans=FNNLNMHCAO+S1+MHCAO+S15。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人重庆理工大学,其通讯地址为:400054 重庆市巴南区李家沱红光大道69号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。