Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 北京航空航天大学阮利获国家专利权

北京航空航天大学阮利获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉北京航空航天大学申请的专利基于动态伸缩内存池的流式数据异构计算内存优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN114048025B

龙图腾网通过国家知识产权局官网在2025-11-25发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202111256499.9,技术领域涉及:G06F9/50;该发明授权基于动态伸缩内存池的流式数据异构计算内存优化方法是由阮利;朱乃威;肖利民;秦广军;常佳辉;徐向荣设计研发完成,并于2021-10-27向国家知识产权局提交的专利申请。

基于动态伸缩内存池的流式数据异构计算内存优化方法在说明书摘要公布了:基于动态伸缩内存池的流式数据异构计算的内存优化方法,该方法由四个模块组成,分别是CPU端主机内存池模块、GPU端设备内存池模块、内存池资源统一监控模块和流式数据内存需求预测模块。四个模块的主要作用是,主机内存池模块提前申请锁定内存进行缓存,设备内存池提前申请设备内存进行缓存,满足流式数据异构计算的内存申请需求;内存池资源统一监控模块定期拉取主机内存池和设备内存池的内存资源使用情况,流式数据内存需求预测模块通过监控每个时间段的内存分配需求,预测未来一段时间的内存分配需求,并根据内存池资源统一监控模块得到的内存池资源水位状况,指导两个内存池的动态扩容和缩容,以应对未来的流式数据异构计算内存分配需求。

本发明授权基于动态伸缩内存池的流式数据异构计算内存优化方法在权利要求书中公布了:1.一种基于动态伸缩内存池的流式数据异构计算内存优化方法,其中,内存池包括CPU端主机内存池和GPU端设备内存池,根据提前申请和延迟释放的思想,通过一次分配大的超级块然后切分为小的内存块的方式来减少CUDA内存分配API的调用次数,并通过将内存块按照大小作为类型分别管理的策略来减小内存分配时查找可用内存块的时间,从而降低流式数据异构计算所需的内存分配延迟,通过引入内存池资源统一监控模块和流式数据内存需求预测模块,基于ARIMA算法预测未来一段时间的系统内存分配需求,从而实现流式数据异构计算场景下的内存池主动伸缩,优化内存池扩容不及时导致的内存分配延迟升高问题和内存池缩容不及时系统内存利用率不佳问题; 包括以下几个步骤: S1:根据用户自定义的配置文件创建全局唯一的CPU端主机内存池和GPU端设备内存池,配置文件的配置项包括内存池的初始大小、内存池的扩容因子、内存池的缩容因子、内存池的单次扩容最大限制、内存池的单次缩容最大限制、内存池的高水位阈值和内存池的低水位阈值,以上配置项是内存池被动伸缩的配置,用于补充动态伸缩的场景需求, 具体来说,步骤S1包含以下子步骤: S1-1:根据内存池的初始大小Count和初始支持内存分配大小,通过乘法计算出初始化需要的总内存大小; S1-2:根据总内存大小除以一个超级块的大小,得到初始化需要的超级块数量n; S1-3:CPU端主机内存池调用n次cudaMallocHost接口,申请n个主机内存超级块,以大小为初始支持内存分配大小参数划分为多个主机内存块,插入内存池的管理链表中进行缓存; S1-4:GPU端设备内存池调用n次cudaMalloc接口,申请n个设备内存超级块,以大小为初始支持内存分配大小参数划分为多个设备内存块,插入内存池的管理链表中进行缓存; S2:运行基于UDP协议的流式数据接收服务端,通过监听UDP套接字进行流式数据接收; S3:在每一次流式数据接收前,服务端向CPU端主机内存池申请分配一块主机锁定内存,作为缓冲区存放本次接收的流式数据,为快速分配出服务端需要的主机锁定内存,CPU端主机内存池执行以下子步骤: S3-1:根据线程标识符和内存分配大小,一对一将请求映射到一个子内存池,如果该子内存池不存在,则根据内存池的初始大小参数创建出子内存池; S3-2:CPU端主机内存池尝试获取子内存池的互斥锁,查看内存管理链表是否有空闲内存块,如果没有则执行子内存池的被动扩容,其中被动扩容的大小会根据内存池的扩容因子计算出实际的扩容大小; S3-3:确定有空闲内存块后,从子内存池的内存管理链表中取出一个内存块,分配给应用,最后释放互斥锁; S4:将流式数据存放到主机锁定内存后,服务端向GPU端设备内存池申请分配一块设备内存,为快速分配出服务端需要的设备内存,GPU端设备内存池执行以下子步骤: S4-1:根据CUDA的流标识符和内存分配大小,一对一将请求映射到一个子内存池,如果该子内存池不存在,则根据内存池的初始大小参数创建出子内存池; S4-2:GPU端设备内存池尝试获取子内存池的互斥锁,查看内存管理链表是否有空闲内存块,如果没有则执行子内存池的被动扩容,其中被动扩容的大小会根据内存池的扩容因子计算出实际的扩容大小; S4-3:确定有空闲内存块后,从子内存池的内存管理链表中取出一个内存块,分配给应用,最后释放互斥锁; S5:设备内存分配成功后,通过PCIE总线将流式数据从主机内存复制到设备内存,然后提交异构计算任务给CUDA系统; S6:基于UDP协议的流式数据接收服务端会不断执行步骤S3-S5,以实现流式计算的异构计算处理,在此过程中,通过引入另外两个模块,即内存池资源统一监控模块和流式数据内存需求预测模块,进一步优化异构计算平台的内存系统: S6-1:内存资源模块定期拉取主机内存池和设备内存池的内存资源使用情况; S6-2:流式数据内存需求预测模块通过监控每个时间段的内存分配需求,预测未来一段时间的内存分配需求,具体来说,是使用ARIMA算法,根据系统设定的p、d、q三个参数,计算出下一个时间点的内存分配需求,ARIMAp,d,q的表达式为: S6-3:流式数据内存需求预测模块根据内存池资源统一监控模块得到的内存池资源水位状况,指导两个内存池的动态扩容和缩容,以应对未来的流式数据异构计算内存分配需求。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人北京航空航天大学,其通讯地址为:100191 北京市海淀区学院路37号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。