Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 南京理工大学黄婵颖获国家专利权

南京理工大学黄婵颖获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉南京理工大学申请的专利一种基于动态优先级的流量调度方法与系统获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN116489104B

龙图腾网通过国家知识产权局官网在2025-10-03发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202310520976.0,技术领域涉及:H04L47/24;该发明授权一种基于动态优先级的流量调度方法与系统是由黄婵颖;许全义;颜克冬;尹丹;肖杉设计研发完成,并于2023-05-10向国家知识产权局提交的专利申请。

一种基于动态优先级的流量调度方法与系统在说明书摘要公布了:本发明公开了一种基于动态优先级的流量调度方法及系统,具体为:发送端根据SDN的网络状态信息计算每条流的剩余时间及优先级;智能决策层服务器使用MADDPG‑Q算法对队列阈值进行优化得到集中式训练的模型;控制层SDN控制器将网络状态信息上报决策层服务器进行模型训练后下发给交换机;转发层可编程交换机通过模型和本地信息获得多级反馈队列阈值,对不同优先级的流分配不同的优先级队列,完成流优先级调度;同时,对同一流优先级区间队列中不同数据包优先级的数据包进行排序,在流优先级改变时调整数据包在队列中的位置,实现动态优先级的队列调度。本发明减少了系统平均流完成时间,能够更好地适应复杂的分布式网络应用。

本发明授权一种基于动态优先级的流量调度方法与系统在权利要求书中公布了:1.一种基于动态优先级的流量调度方法,其特征在于,设置有发送端、智能决策层服务器、控制层SDN控制器、转发层可编程交换机以及接收端,具体方法如下: 步骤1、在发送端以剩余流大小比上可用带宽计算剩余时间,通过与多级反馈队列阈值进行比较获得流的优先级; 步骤2、智能决策层服务器通过MADDPG‑Q算法,自适应地针对多级反馈队列划分队列阈值进行计算和优化,得到集中式训练的多级反馈队列阈值更新模型; 步骤3、控制层SDN控制器连接底层硬件设备和智能决策层,控制器获取全局的网络状态,为智能决策层服务器计算优化阈值提供所需信息,同时将智能决策层服务器训练好的多级反馈队列阈值更新模型下发给转发层可编程交换机; 步骤4、转发层可编程交换机使用多级反馈队列作为优先级队列,人工设置多级反馈队列初始阈值;在对于发送端进行优先级计算之后,实现对于不同优先级的流匹配进入不同的优先级队列,完成流优先级调度;同时,对同一流优先级区间队列中不同数据包优先级的数据包进行排序,并且在流优先级改变时,调整数据包在队列中的位置,实现数据包级调度; 步骤5、接收端接收数据包:当发生拥塞时,接收端接收到被标记的数据包时,标记返回的ACK;TCP发送端收到ACK时,计算最后一个窗口对应的标记ACK的百分比,估计网络拥塞程度; 步骤2中所述MADDPG‑Q算法,具体如下: 步骤2.3.1、将交换机看成一个智能体,一个有m个智能体的环境,π=π1,π2,…,πm代表m个智能体的策略,θ=θ1,θ2,…,θm表示m个智能体的策略参数; 步骤2.3.2、设计状态空间,由每个智能体的观测信息组成s=o1,o2,o3,…,om,om代表第m个流;在模型中,状态被表示为当前时间步长中整个网络中所有已完成流的集合; 每一个流都由5元组标识:源IP、目标IP、源端口号、目标端口号、传输协议,另外将FCT和链路上花费时间大小记录为流属性,每一个流总共有7个特征;同时还包括流所在链路带宽; 步骤2.3.3、设计动作空间,每个智能体分别计算得出的一组MLFQ阈值;其中t表示时间,i代表队列序号,m代表智能体序号; 步骤2.3.4、设计奖励函数,给每个智能体设置单独的奖励值,将奖励建模为两个连续时间步长的目标函数之间的比率:rt=TtTt‑1,该式表明是否是之前的操作导致了较低的平均FCT或者降低了整体性能;每个已完成流的平均吞吐量为;则; 其中表示所有已完成的流的集合; 步骤2.3.5、智能决策层服务器执行MADDPG‑Q算法训练模型,具体算法如下: 算法1MADDPG‑Qform个智能体①初始化每一个智能体actor网络的online参数和critic网络的online参数,初始化状态s; ②Fort=1toMAX‑EPISODEdo对于每个agent,选择动作am=μmom+Nt,其中om代表该智能体的观测状态,Nt代表探索所加的随机噪声,μm代表确定性策略; ③每个智能体执行相应的动作am,得相应的奖励值r=r1, r2, r3, r4, …,rm,进入下一个状态s′,s←s′; ④存储s, a, r, s′到reply buffer Bs,其中a=a1, a2, …, am; For agent M=1 to m do从Bs中进行Mini‑batch采样,采样大小为Ts,每个样本为si, ai, ri, s′i计算相应的,其中yi是target策略的集合,γ是折扣因子,γ∈0, 1],表示第m个智能体的状态‑动作函数,不同智能体的Q是独立的,所以不同智能体能够设置不同结构的奖励值函数; ⑤通过损失函数Loss反向传播更新critic网络,其中Loss定义为; 其中T为一个时间步长; ⑥通过策略梯度公式更新actor网络,策略梯度的计算公式为; End for⑦更新每个agent的target网络参数,代表学习率; End for。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人南京理工大学,其通讯地址为:210094 江苏省南京市玄武区孝陵卫200号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。