Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
专利交易 商标交易 积分商城 国际服务 IP管家助手 科技果 科技人才 会员权益 需求市场 关于龙图腾 更多
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 河北大学李桐宇获国家专利权

河北大学李桐宇获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉河北大学申请的专利空中STAR-RIS赋能移动边缘计算系统能耗优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120186682B

龙图腾网通过国家知识产权局官网在2026-03-31发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510441335.5,技术领域涉及:H04W28/084;该发明授权空中STAR-RIS赋能移动边缘计算系统能耗优化方法是由李桐宇;李雨桐设计研发完成,并于2025-04-09向国家知识产权局提交的专利申请。

空中STAR-RIS赋能移动边缘计算系统能耗优化方法在说明书摘要公布了:本发明涉及一种空中STAR‑RIS赋能移动边缘计算系统能耗优化方法,包括以下步骤:S1、构建一个空中STAR‑RIS赋能MEC系统;S2、通过求解空中STAR‑RIS每个时隙的飞行能耗以及IoT设备k每个时隙的本地计算能耗和IoT设备k在一个飞行周期内的任务卸载能耗,确定空中STAR‑RIS赋能MEC系统的能耗;S3、确定最小化空中STAR‑RIS赋能MEC系统能耗的约束条件;S4、根据约束条件对STAR‑RIS赋能MEC系统能耗进行最小化处理。本发明通过UAV与STAR‑RIS的集成,辅助建立通信链路,促进了IoT设备与MEC服务器之间的通信;通过联合优化空中STAR‑RIS的轨迹、任务卸载比例、传输与反射模式的幅度系数、传输与反射模式的相移系数以及功率分配,实现了空中STAR‑RIS赋能MEC系统低能耗目标。

本发明授权空中STAR-RIS赋能移动边缘计算系统能耗优化方法在权利要求书中公布了:1.一种空中STAR-RIS赋能移动边缘计算系统能耗优化方法,其特征是,包括以下步骤: S1、构建一个空中STAR-RIS赋能MEC系统;所述系统包括安装在UAV上的单个STAR-RIS,集成了MEC服务器和若干天线的BS,以及一组K个IoT设备k;空中STAR-RIS的飞行高度为H,其坐标为:,其约束条件为:,以确保空中STAR-RIS在飞行结束时能够返回其起始点;所述空中STAR-RIS由一组个单元组成,每个单元都包含有反射传输系数和移相器,用于将入射信号导向期望的方向;K个IoT设备k中有R个位于反射区域,构成反射型IoT设备r;有T个位于传输区域,构成传输型IoT设备t;其中,K=R+T;IoT设备k与BS之间的通信链路完全由空中STAR-RIS辅助; S2、通过求解空中STAR-RIS每个时隙的飞行能耗以及IoT设备k每个时隙的本地计算能耗和IoT设备k在一个飞行周期内的任务卸载能耗,确定空中STAR-RIS赋能MEC系统的能耗; S3、设定最小化空中STAR-RIS赋能MEC系统能耗的约束条件; S4、根据约束条件对STAR-RIS赋能MEC系统能耗进行最小化处理,得到空中STAR-RIS赋能移动边缘计算系统能耗优化设计方案; 步骤S4的具体操作方式是: S4-1定义MDP,其组成部分包括: ①状态空间:每个时刻n的状态设定是一个元组,表示为: .11 是空中STAR-RIS与BS之间的信道响应向量,是反射型IoT设备r到空中STAR-RIS的信道响应向量,是传输型IoT设备t到空中STAR-RIS的信道响应向量,为空中STAR-RIS的坐标,Ikn是每个计算任务的输入数据大小,Gk是处理1比特输入数据所需的计算资源量,Tkmaxn是任务完成的最大可容忍延迟,,为反射或传输系数矩阵,当δ=r时,为反射系数矩阵,当δ=t时,为传输系数矩阵; ②动作空间:每个时刻n的动作被定义为当前值的增量,包含任务卸载比例λk、空中STAR-RIS的位置q、相移系数向量、幅度向量β和发射功率p;其中,位置表示为:;相移系数向量表示为:;幅度向量表示为:;发射功率表示为:;其中,是哈达玛积,表示增量值; ③奖励rn:定义为rn=rsn,an; ④折扣因子γ:作为调节未来奖励在智能体决策过程中重要性的参数; S4-2运行包括策略网络Actor和价值网络Critic的DDPG算法: S4-2-1智能体会从环境中收集信息以生成初始状态; S4-2-2进行经验回放与价值网络评估:主策略网络根据当前状态sn、当前策略σ以及随机噪声序列,选择一个动作,在获得动作an之后,使用经验回放缓冲区,智能体将样本转移元组sn,an,rn,s′存储到回放缓冲区中;同时,基于当前状态和动作,主价值网络更新价值网络参数ξ并计算当前的Q值;主策略网络通过构建卷积神经网络来模拟贝尔曼方程,以求解递归Q函数,并通过从经验回放记忆中随机选择64-128个样本转移元组来更新价值网络;目标Q值yj由目标价值网络计算得出; S4-2-3更新价值网络和主策略网络:智能体从经验回放记忆中随机选择64-128个样本转移元组sn,an,rn,s′进行迭代;在每次迭代中,通过计算yj,将目标策略网络和目标价值网络结合起来,并将其发送到主价值网络,以最小化损失函数Lξ: 12 其中,m表示样本转移元组的数量; S4-2-4通过使用价值网络参数ξ和来自回放缓冲区的样本转移元组,主策略网络使用策略梯度来更新当前策略: 13 S4-3采用软更新方式更新参数,直到训练出所需的策略网络: 14 15 其中,表示更新参数; DDPG算法迭代运行,直到达到设定的迭代次数。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人河北大学,其通讯地址为:071002 河北省保定市五四东路180号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。