Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 西安电子科技大学广州研究院刘毅获国家专利权

西安电子科技大学广州研究院刘毅获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉西安电子科技大学广州研究院申请的专利一种将卷积神经网络建模为同步数据流图的方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116225447B

龙图腾网通过国家知识产权局官网在2026-04-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310050169.7,技术领域涉及:G06F8/41;该发明授权一种将卷积神经网络建模为同步数据流图的方法是由刘毅;王顺尧;翁笑冬设计研发完成,并于2023-02-01向国家知识产权局提交的专利申请。

一种将卷积神经网络建模为同步数据流图的方法在说明书摘要公布了:本发明涉及一种将卷积神经网络建模为同步数据流图的方法,属于多核处理器系统、片上网络及卷积神经网络研究技术领域。该方法首先接受以JSON文件形式保存的卷积神经网络模型,其次解析该模型并收集每个神经元层计算及相互连接的信息;再次使用这些信息计算每个通道上需要发送的tokens数量、每个神经元层需要执行的操作数量和类型、每个神经元层的深度等数学表征;最后利用这些数学表征生成同步数据流图。本发明提出的方法有助于设计人员通过生成的同步数据流图加快分析卷积神经网络到多核处理器系统的映射和调度过程,且有助于通过理论分析系统吞吐率等指标。

本发明授权一种将卷积神经网络建模为同步数据流图的方法在权利要求书中公布了:1.一种将卷积神经网络建模为同步数据流图的方法,其特征在于,所述方法包括以下步骤: 1接受以JSON文件形式保存的CNN模型; 2解析CNN模型并收集神经元层的计算及连接信息; 3计算每个通道上需要发送的tokens数量; 4计算每个神经元层需要执行的操作数量和类型; 5计算每个神经元层的深度; 6生成同步数据流图; 所述步骤3的具体方法为: 对于特定CNN模型,指定其建模粒度为神经元层,作为建模的单元;将其神经元聚类成节点,同时将神经元层表征为神经元簇;建模粒度确定后,实施CNN模型的建模过程; 计算每个通道末端的端口速率,即计算输入、输出的tokens数量; 定义神经元或神经元层之间传输的数据为一个大小w,h,m的三维矩阵,其中,w表示输入数据宽度,h表示输入数据高度,m表示输入数据深度,即通道数;对于在NoC上两个角色间传输的tokens数量,定义成传输的数据数量whm; 针对CNN模型中的连接层,定义当一个连接层的输入层为x1,x2,…,xn,该连接层的输入数为n,n表示核数目,其输出将连接到当前连接层的下一层;输入层xi,i∈{1,2....,n}经过该连接层后输出一个大小为w,h,mi的数据矩阵,连接层的下一层输入矩阵维数为,mi表示第i个输入数据深度; 针对CNN模型中的连接层,隐藏连接层,只保留其输入层和输出层之间的连接,不使用角色表示它,即连接层不发生任何计算,且没有任何tokens流经它; 针对CNN模型中的卷积层,定义其卷积核为一个大小k,k的二维矩阵,k表示核大小;卷积层的输出维数取决于由Tensorflow定义的名为padding的参数,如果padding=“valid”,则对输入矩阵应用卷积核的计算次数为,s表示步长,同时可以得到输出矩阵的维数为;如果padding=“same”,则对输入矩阵应用卷积核的计算次数为,同时可以得到输出矩阵的维数为; 针对CNN模型中的批量标准化层与激活层,输出矩阵维数与其输入矩阵维数相同,均定义为w,h,m; 针对CNN模型中的填充层,定义其在w和h维度上填充的像素数为p1和p2,可以得到其输出矩阵维数为w+2p1,h+2p2,m; 针对CNN模型中的扁平层,输出矩阵维数与其输入矩阵维数相同,均定义为w,h,m; 针对CNN模型中的池化层,输出维数取决于由Tensorflow定义的名为padding的参数,如果padding=“valid”,可以得到输出矩阵的维数为;如果padding=“same”,可以得到输出矩阵的维数为; 针对CNN模型中的全连接层,定义其输入为一个大小1,1,m的一维矢量,全连接层中神经元数量为u,则该神经元层将产生u个输出数据,得到在全连接层中将进行mu次乘加运算; 针对CNN模型中的相加层,假设所有输入数据的维数是相同的,定义为w,h,m,输出矩阵维数也定义为w,h,m。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人西安电子科技大学广州研究院,其通讯地址为:510000 广东省广州市黄埔区中新知识城海丝中心B5、B6、B7栋;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。