Document
拖动滑块完成拼图
个人中心

预订订单
服务订单
发布专利 发布成果 人才入驻 发布商标 发布需求

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 科技服务 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 长春工业大学李慧获国家专利权

长春工业大学李慧获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉长春工业大学申请的专利一种基于深度学习的大型散料装备运动控制优化方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120257849B

龙图腾网通过国家知识产权局官网在2025-08-19发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510732837.3,技术领域涉及:G06F30/27;该发明授权一种基于深度学习的大型散料装备运动控制优化方法是由李慧;马钰民;姜志宇;张秀梅;刘越;罗明月设计研发完成,并于2025-06-04向国家知识产权局提交的专利申请。

一种基于深度学习的大型散料装备运动控制优化方法在说明书摘要公布了:本发明公开一种基于深度学习的大型散料装备运动控制优化方法,涉及基于特定计算模型的计算机系统、深度学习、智能控制及工业自动化领域。针对散料装备控制系统中存在的环境感知不全面、动态环境适应性差等问题,本方法首先通过多源传感器采集数据及预处理;其次,构建跨模态注意力融合模型实现特征对齐;最后,设计LSTM‑PPO混合网络架构,其中LSTM层处理时序状态特征,PPO算法实现控制策略优化。与现有技术相比,本发明可以提升传统大型散料装备运动控制中精度与可控性,更易提高系统运行效率与鲁棒性,本方法可广泛应用于物流与散货装卸、工业智能制造和生产领域。

本发明授权一种基于深度学习的大型散料装备运动控制优化方法在权利要求书中公布了:1.一种基于深度学习的大型散料装备运动控制优化方法,其特征在于,包括以下步骤: 步骤1:通过多源传感器采集料场环境数据,基于曲率特征和改进ORB算法分别提取点云与图像的鲁棒特征,并利用时空对齐和归一化处理实现多源数据的协同预处理; 步骤2:构建跨模态注意力融合模型,通过几何约束下的特征匹配优化和动态权重分配,输出具有互补优势的多模态联合特征表达,具体包括以下步骤: 步骤2.1:所述跨模态注意力融合模型,通过采用多头缩放点积注意力机制,对空间对齐模块建立几何一致性约束,在复杂环境下稳定提取跨模态的共性特征与互补信息,采用可学习的线性变换将其映射到统一的特征空间: 其中Q为主动查询的特征,K为被匹配的特征,V为实际传递的信息,Fpc为点云特征矩阵,Fimg为图像特征矩阵,WQ、WK、WV为可学习投影矩阵,采用汉明距离DH度量特征相似性: 其中descA、descB分别为特征点A和B的描述子,是动态汉明距离阈值,为基础阈值,为阈值调整幅度,为图像归一化对比度,保留的匹配对作为候选对应点; 步骤2.2:然后进行特征精匹配,构建包含几何误差和运动先验的优化目标函数ET: 其中T为描述点云到图像的投影关系的变换矩阵,qi为投影2D图像点,pi为点云中任意点,ρ为Huber鲁棒核函数,π为相机投影模型,λ为正则化系数,Tprev表示上一帧的变换矩阵,e为输入误差,δ为阈值参数,目标函数通过Gauss-Newton算法迭代求解迭代到收敛; 步骤2.3:将优化目标函数得到的优化匹配结果进行非线性映射,利用多头注意力机制从多维度捕捉特征间的依赖关系,注意力权重AttentionQ,K,V计算如下: 其中QKT为点云每个点与图像每个区域的关联强度,为缩放因子,softmax为按行归一化处理; 采用多头缩放点积注意力机制,将投影后的特征扩展为h个注意力头,每个注意力头独立计算,多头注意力扩展计算如下: MultiHeadQ,K,V=Concathead1,...,headhWQ 其中head1到headh为单头注意力输出,设计跨模态注意力权重机制计算如下: 最后输出环境状态表征Fout: Fout=LayerNormFfusion+FFNFfusion 其中Ffusion为跨模态注意力输出的融合特征,FFN为前馈神经网络,LayerNorm为层归一化处理; 步骤3:构建LSTM-PPO混合决策网络,利用LSTM的长时序依赖建模能力提取状态特征,结合PPO算法的策略梯度优化实现动态环境下的自适应决策,得到最终优化策略,具体包括以下步骤: 步骤3.1:所述LSTM-PPO决策网络架构,基于LSTM网络与PPO算法,以实现对大型散料装备运动的控制,网络模型由输入层、LSTM层、全连接层、Actor网络与Critic网络组成; 输入层接收经特征提取与匹配后的多源数据,包含环境状态表征、装备运行状态和料流数据;所述LSTM层隐藏单元数量为128,层数为2层; 步骤3.2:融合LSTM编码的时序特征ht,构建Actor-Critic框架,通过交替优化策略网络和价值网络实现控制策略的迭代更新,Actor输出装备连续控制动作at: at=tanh[Wa·ReLUW1·ht+b1+ba] 其中W1,b1为全连接层参数,ReLU为激活函数,Wa,ba为输出层参数,tanh将动作约束到[-1,1],再通过线性映射到实际控制范围; Critic预估从t时刻状态s开始的折扣累计奖励Vst计算如下: Vst=Wv·ReLUW2·ht+b2+bv 其中W2,b2为全连接层参数,Wv,bv为输出层参数; 步骤3.3:基于PPO算法采用端到端的训练方式,设置训练批次大小为64,优化迭代次数为10次,以累计折扣回报作为优化目标,限制策略更新的幅度,避免因单次更新过大导致策略崩溃,优势函数At计算如下: δt=rt+γVst+1-Vst rt=[0.6α+0.7β] 其中折扣因子γ设为0.95,平滑系数λ设为0.9,rt为即时奖励,α为达到控制目标所需时间,β为目标位置与实际位置之间空间偏移量,δt为t时刻时序差分误差,设置目标函数: LCLIPθ=Et{min[rtθAt,cliprtθ,1-ε,1+εAt]} 其中rtθ为新旧策略比,ε为裁剪阈值设为0.2,πθ为一个随即策略,训练目标函数,总损失函数计算如下: Ltotal=-LCLIPθ+c1LVF-c2Hπθ 其中Critic损失权重c1设为0.5,c2为策略熵权重设为0.02,LVF为价值损失函数,Hπθ为策略熵。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人长春工业大学,其通讯地址为:130012 吉林省长春市朝阳区延安大街2055号长春工业大学;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。