金陵科技学院曲雅微获国家专利权
买专利卖专利找龙图腾,真高效! 查专利查商标用IPTOP,全免费!专利年费监控用IP管家,真方便!
龙图腾网获悉金陵科技学院申请的专利一种基于卫星观测和连续图像的能见度分析方法获国家发明授权专利权,本发明授权专利权由国家知识产权局授予,授权公告号为:CN119942362B 。
龙图腾网通过国家知识产权局官网在2026-04-07发布的发明授权授权公告中获悉:该发明授权的专利申请号/专利号为:202510014545.6,技术领域涉及:G06V20/13;该发明授权一种基于卫星观测和连续图像的能见度分析方法是由曲雅微;姬晟轩;方雨欣;袁成;吴昊设计研发完成,并于2025-01-06向国家知识产权局提交的专利申请。
本一种基于卫星观测和连续图像的能见度分析方法在说明书摘要公布了:本发明提出一种基于卫星观测和连续图像的能见度分析方法,通过获取固定摄像头连续图像数据、地面监测站点逐小时能见度观测数据和卫星反演能见度数据,并基于上述数据进行多源数据空间动态融合,根据不同的数据来源使用合适的插值算法,并基于数据分布密度动态调整每种数据源的贡献权重,确保模型在空间上具备精确的预测能力,然后进行模型的搭建、训练以及微调,最终实现连续图像的能见度识别,在模型应用阶段,不再依赖地面监测站点数据和卫星数据,而是利用摄像头的实时图像进行能见度识别。本方法通过引入时间加权机制,能够充分利用连续时刻的摄像头图像,提升能见度预测的稳定性和精度,避免单个时刻的噪声或异常值对结果产生较大影响。
本发明授权一种基于卫星观测和连续图像的能见度分析方法在权利要求书中公布了:1.一种基于卫星观测和连续图像的能见度分析方法,其特征在于:包括如下步骤: S1、数据准备: 搭建系统数据库,收集固定摄像头连续图像数据、地面监测站点逐小时能见度观测数据以及卫星反演能见度数据, S11、固定摄像头连续图像数据: 固定摄像头连续图像数据通过固定摄像头提供,固定摄像头的数据来自于交通摄像头、城市安防摄像头或其他气象部门部署的专用摄像头,摄像头以固定间隔持续采集图像,形成时序图像数据集, 对时序图像数据集进行数据预处理: S111、图像尺寸统一: 将所有图像缩放至统一尺寸,图像尺寸统一采用双线性插值或三次样条插值算法, Iresize=resizeIoriginal,800,600 其中Iresize为处理后的图像,Ioriginal为原始图像; S112、颜色通道标准化: 为适应神经网络的输入要求,图像的RGB三个颜色通道需要分别进行归一化处理,归一化公式如下: 其中Ix,y,c为像素点x,y的颜色通道c的值,μc和σc分别为颜色通道c的均值和标准差, S113、去噪与增强: 采用中值滤波或双边滤波对图像进行去噪: Idenoise=medianFilterInorm,k 其中k为滤波窗口大小, 采用对比度拉伸和亮度调整对图像进行增强, S114、数据增强: 采用随机旋转、裁剪、翻转的方式对图像进行数据增强: Iaug=randomAugmentIdenoise 数据增强后的图像将与原始图像一起用于能见度回归模型训练, S115、时间对齐: 通过插值算法进行时间对齐,确保图像的时间戳与地面监测站点逐小时能见度观测数据和卫星反演能见度数据的时间一致,如果某一时刻缺少摄像头图像,可以通过相邻时刻的图像插值填补: 这样能确保所有时间点上都有连续的图像数据供后续分析使用; S12、地面监测站点逐小时能见度观测数据: 地面监测站点逐小时能见度观测数据由气象部门提供,气象部门通过各城市中的地面监测站点进行能见度监测,地面监测站点数据包括逐小时能见度数据和气象数据,其中气象数据用于辅助分析能见度变化, 对逐小时能见度观测数据进行数据预处理: S121、时间对齐: 将逐小时能见度观测数据进行时间插值,使其与固定摄像头采集的摄像头图像数据一致: 其中,Vt为时间t的能见度值,t0和t1为相邻两个整点时刻, S122、缺失值处理: 如果某一时刻地面监测站点数据缺失,通过插值或使用基于历史数据的插补方法进行补全; S13、卫星反演能见度数据: 卫星反演能见度数据通过极轨卫星或静止卫星获取,其分辨率视相应的卫星系统而定, S131、去除异常值: 在预处理阶段剔除卫星反演能见度数据中的异常值,并通过上下限约束和统计手段检测误差数据; S132、时间对齐: 通过线性插值方法填补卫星反演能见度数据时间上的空缺,确保摄像头图像数据、地面监测站点的逐小时能见度观测数据和卫星反演能见度数据在同一时刻上相互对应, S14、所有处理后的数据将被存储在系统数据库中,按区域和时间进行分类和管理, 数据的管理包括:原始数据的存储和处理后的数据存储, 每个处理后的摄像头图像数据、逐小时能见度观测数据和卫星反演能见度数据都会带有时间戳和空间标签,确保与能见度回归模型的输入保持一致; S2、多源数据空间动态融合: 通过引入网状模型,对摄像头图像数据、逐小时能见度观测数据和卫星反演能见度数据的三类数据进行空间上的融合与权重调整,具体如下: 根据不同的数据来源情况使用相应的插值算法,并基于数据分布密度动态调整每种数据源的贡献权重,确保能见度回归模型在空间上具备精确的预测能力, 以卫星反演能见度数据的最高分辨率网格为基础,在地理空间上对目标区域进行网格化处理,网格的划分基于卫星分辨率,以固定摄像头所在网格作为核心网格,再向外扩展八个周边网格,形成3x3的九宫格结构, 这九个网格中,核心网格的数据融合固定摄像头、地面监测站点和卫星系统,而周边网格用于卫星数据和地面站点数据插值, 空间数据融合方式根据网格内地面监测站点的分布情况进行调整,共分为四种情况: 情况1:无站点 核心网格及周边的8个网格内均无地面监测站点,由于缺乏地面监测站点数据,核心网格的能见度完全依赖卫星系统,其计算过程无需插值算法,仅根据卫星系统的观测数据来确定能见度值,数据权重分配如下: 核心网格内的卫星数据权重:ωsat=1 地面站点数据权重:ωsite=0 核心网格能见度算法公式: Vcore=Vsatcore 其中,Vcore为数据融合后的核心网格能见度,Vsatcore为核心网格内的卫星观测能见度数据, 情况2:聚集型站点 核心网格内有不少于1个地面监测站点,而周边8个网格内无站点,该情况下,需要结合核心网格内的站点数据和卫星数据, 如果核心网格中只有一个地面监测站点,则直接使用该地面监测站点数据作为核心网格的站点能见度Vsitecore, 如果核心网格有超过一个地面监测站点,则需进行地面监测站点间的插值处理: 其中,Vx表示站点i的能见度观测值,dx,x是摄像头位置x与站点i之间的距离,p为距离衰减因子, 数据权重分配: 核心网格内的卫星数据权重:ωsat=0.5 核心网格内的地面监测站点数据权重:ωsite=0.5 综合考虑核心网格的卫星数据和站点数据,核心网格的能见度计算公式为: core=ωsite×Vsitecore+ωsat×Vsatcore 情况3:稀疏型站点 核心网格内没有地面监测站点,但周边的8个网格中存在至少1个地面监测站点,此时需要利用周边地面监测站点数据对核心网格的能见度进行插值, 如果周边网格内只有一个地面监测站点,则直接使用该地面监测站点数据作为周边网格的地面监测站点能见度Vsiteout, 如果周边网格内有多个地面监测站点,使用克里金插值法将周边网格的地面监测站点数据插值至核心网格内: 其中,Vx为周边地面监测站点i的能见度观测值,λ是插值权重,基于地理空间相关性确定,满足 数据权重分配: 核心网格的卫星数据权重:ωsat=0.8 地面监测站点数据权重:ωsite=0.2 插值后的地面监测站点数据与核心网格的卫星数据结合,核心网格的能见度计算公式为: Vcore=ωsite×Vsiteout+ωsat×Vsatcore 情况4:多站点 核心网格和周边的8个网格内均有地面监测站点,此时需要分别对核心网格和周边网格的地面监测站点数据进行处理,核心网格内的地面监测站点数据使用反距离权重法进行插值,而周边网格内的地面监测站点数据使用克里金插值法插值至核心网格, 核心网格内的地面监测站点插值算法如下: 周边网格的地面监测站点插值算法为: 数据权重分配: 核心网格的地面监测站点数据权重:ωsitecore=0.6 核心网格的卫星数据权重:ωsat=0.3 周边网格的地面监测站点数据权重:ωsiteout=0.1 结合核心和周边网格的地面监测站点插值数据,以及核心网格的卫星数据,核心网格的能见度计算公式为: Vcore=ωsitecore×Vsitecore+ωsat×Vsatcore+ωsiteoμt×Vsiteout: S3、能见度回归模型训练: S31、视觉图像特征提取: 使用骨干网络对固定摄像头拍摄的视觉图像进行特征提取,得到图像高维特征,使用骨干网络对卫星系统获取的卫星数据进行特征提取,得到卫星数据高维特征,对卫星数据进行标准化处理,得到卫星数值; S32、建立全联接的回归模型: 将视觉图像提取的图像高维特征和卫星数据提取的卫星高维特征或卫星数值,与能见度标签数据建立一个全联接的神经网络回归模型; S33、模型训练:使用长时间尺度的多区域训练样本,进行模型训练; S34、模型微调:在模型训练中,使用多位置、长时间尺度的样本训练出来的模型,在实地使用时需要进行微调,在模型应用中,设置一个模型微调的功能,实现对模型的微调; S4、能见度识别: 在能见度回归模型应用阶段,不再依赖地面监测站点数据和卫星反演能见度数据,而是利用固定摄像头的实时图像进行能见度识别, 通过引入时间加权机制,能够充分利用连续时刻的固定摄像头的实时图像, 针对目标时刻t,从固定摄像头拍摄的图像序列中提取前后2n+1个时刻的图像数据,并对每一时刻进行能见度识别, 然后,基于图像拍摄时刻和目标时刻的时间差,给每个时刻赋予不同的权重; 最终,通过加权计算的方法得到时刻t的能见度值, 其中,Vt+i为时刻t+i处的能见度估计值;ωi为与时间差i成反比的权重,时间差越小,权重越大, 权重解释:当前时刻t对应的权重ω0最大,确保能见度回归模型以当前时刻的观测值为主导;前后时刻的数据作为辅助,权重ω-2,ω-1,ω1,ω2随着时间距离的增大而逐渐减小。
如需购买、转让、实施、许可或投资类似专利技术,可联系本专利的申请人或专利权人金陵科技学院,其通讯地址为:210000 江苏省南京市江宁区弘景大道99号;或者联系龙图腾网官方客服,联系龙图腾网可拨打电话0551-65771310或微信搜索“龙图腾网”。
以上内容由龙图腾AI智能生成。
1、本报告根据公开、合法渠道获得相关数据和信息,力求客观、公正,但并不保证数据的最终完整性和准确性。
2、报告中的分析和结论仅反映本公司于发布本报告当日的职业理解,仅供参考使用,不能作为本公司承担任何法律责任的依据或者凭证。

皖公网安备 34010402703815号
请提出您的宝贵建议,有机会获取IP积分或其他奖励