Document
拖动滑块完成拼图
个人中心

预订订单
商城订单
发布专利 发布成果 人才入驻 发布商标 发布需求

请提出您的宝贵建议,有机会获取IP积分或其他奖励

投诉建议

在线咨询

联系我们

龙图腾公众号
首页 专利交易 IP管家助手 科技果 科技人才 积分商城 国际服务 商标交易 会员权益 需求市场 关于龙图腾
 /  免费注册
到顶部 到底部
清空 搜索
当前位置 : 首页 > 专利喜报 > 中国科学院地质与地球物理研究所武绍江获国家专利权

中国科学院地质与地球物理研究所武绍江获国家专利权

买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!

龙图腾网获悉中国科学院地质与地球物理研究所申请的专利基于人工智能的多物理场监测应力场计算方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN120579462B

龙图腾网通过国家知识产权局官网在2025-11-18发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202511028525.0,技术领域涉及:G06F30/27;该发明授权基于人工智能的多物理场监测应力场计算方法是由武绍江;王一博设计研发完成,并于2025-07-24向国家知识产权局提交的专利申请。

基于人工智能的多物理场监测应力场计算方法在说明书摘要公布了:本发明提供一种基于人工智能的多物理场监测应力场计算方法,包括:进行室内岩石物理水力压裂实验,并进行多物理场监测;构建训练数据集;构建应力计算模块,所述应力计算模块使用三通道子结构,1个通道为常规的多层卷积结构,用于提取时间的多尺度信息,2个通道为UNet型子结构,用于提取时间空间的多尺度信息;使用训练数据集训练检测网络;对所有实际监测得到的数据进行相同步骤的预处理,将预处理后的声发射数据输入到应力计算模块,获得应力场值;更新数据集和应力计算模块。本发明的基于人工智能的多物理场监测应力场计算方法利用自适应的AI网络更新机制,动态监测噪音更新,提升应力计算模块的适应性。

本发明授权基于人工智能的多物理场监测应力场计算方法在权利要求书中公布了:1.一种基于人工智能的多物理场监测应力场计算方法,其特征在于,所述方法包括: 进行室内岩石物理水力压裂实验,并进行多物理场监测; 构建训练数据集:对不同的岩石样品分别进行所述实验,获得数据,构成总数据集;每次实验中,设定应力场参数,获得二维的声发射波形数据,单个声发射波形数据为二维结构Nsta,Nt,Nsta为压电陶瓷传感器的通道数,Nt为单个通道的采样点数,该采样点数被设置为1000;应力场参数为四维结构;数据集由模拟合成数据构成;对数据进行增广,以提升数据集的普适性;对所有数据进行相同步骤的预处理; 构建应力计算模块,所述应力计算模块使用三通道子结构,1个通道为常规的多层卷积结构,用于提取时间的多尺度信息,2个通道为UNet型子结构,用于提取时间空间的多尺度信息;所述三通道子结构通过全连接层进行连接,融合提取的特征,最后连接层输出四个应力场参数对应的值;提取各自维度的最大值作为当前预测的四个应力场参数;应力计算模块的输入为微地震事件的多通道数据,输出为预测的应力场参数,网络采用交叉熵损失函数,拟合预测的应力场参数值与真实的应力场参数值的误差,反向传播指导网络参数学习和表示学习; 使用训练数据集训练检测网络; 对所有实际监测得到的数据进行相同步骤的预处理,将预处理后的声发射数据输入到应力计算模块,获得应力场值; 更新数据集和应力计算模块, 在“将预处理后的声发射数据输入到应力计算模块,获得应力场值”之后,所述方法包括: 分析相邻两次应力场值的差异; 每隔给定时间,将预处理后的CT数据进行处理,获得当前CT图像Imgn,在CT图像中获得压电陶瓷传感器的位置Stan,分析压电陶瓷传感器的位置在相邻两次图像中的位置差异ESta: 每隔给定时间,将预处理后的超声数据进行处理,获得当前超声的速度场值Veln,分析压电陶瓷传感器的位置在相邻两次速度场值的差异EVel: 每隔给定时间,采集实验过程中每个压电陶瓷传感器的噪音数据;选取背景噪音,使用噪音能量计算方法,计算该背景噪音的能量,计算该背景噪音的能量与数据增广中噪音能量最大值的比值Enoise; 当满足下述条件时,触发应力计算模块的更新: 在预定时间内,条件1连续满足两次以上,且相邻两次应力场值的差异大于40; 当条件2满足时;或 当条件3满足,且条件2中的位置差异ESta的值大于5。

如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人中国科学院地质与地球物理研究所,其通讯地址为:100029 北京市朝阳区北土城西路19号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。

以上内容由龙图腾AI智能生成。

免责声明
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。