一种基于全局和局部特征联合约束的跨模态地点识别方法
本发明涉及计算机视觉技术领域,具体涉及一种基于全局和局部特征联合约束的跨模态地点识别方法。本发明包括以下步骤:步骤1、分别输入1张彩色图像和红外图像到GLFC‑Net网络模型中;步骤2、利用ResNet50网络和局部分支模块,将步骤1中输入的两种模态的图像生成富含全局性和局部性的共享特征;步骤3、从富含全局性的共享特征中提取对应的全局特征;步骤4、从富含局部性的共享特征中提取对应的局部特征;步骤5、对步骤3获得的全局特征与步骤4获得的局部特征进行全局级别和局部级别联合约束;步骤6、若达到指定的训练轮数,则结束;否则继续完成训练,返回步骤1。本发明增加了对光照不足、视角变化问题的鲁棒性,从而提高了地点识别的准确率。
基于全局和局部特征联合约束的跨模态地点识别方法在多个领域具有广泛的应用潜力。在自动驾驶与机器人导航领域,该方法可实现视觉、激光雷达等多源数据的鲁棒地点匹配,提升复杂环境下的定位精度;在增强现实(AR)应用中,支持虚实场景的快速对齐,优化用户体验;在智慧城市建设中,可用于多模态监控数据的跨摄像头目标关联,强化公共安全管理。此外,在无人机巡检(如电力线路多传感器协同定位)、国防军事(战场环境多源情报融合)以及地理信息系统(GIS)(遥感图像与街景的关联分析)等领域,该方法均可显著提升跨模态数据的协同感知能力,推动智能化技术的发展。
与现有技术相比,本发明的有益效果为:本发明提出了全局特征和局部特征联合约束网络,学习并区分两种模态特征的表示,增加了对光照不足、视角变化问题的鲁棒性,从而提高了地点识别的准确率。
联系方式
梁瑞
17332172210
江苏省南通市崇川区永福路79号1幢南通大学技术转移研究院
请填写以下信息
联系人:
手机号:
单位名称:
备注: