← 返回列表
基于双任务学习和位姿图优化的视觉重定位方法及系统
申请人信息
- 申请人:广东技术师范大学
- 申请人地址:510665 广东省广州市天河区中山大道西293号广东技术师范大学
- 发明人: 广东技术师范大学
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 基于双任务学习和位姿图优化的视觉重定位方法及系统 |
| 专利类型 | 发明申请 |
| 申请号 | CN202311685922.6 |
| 申请日 | 2023/12/8 |
| 公告号 | CN117671397A |
| 公开日 | 2024/3/8 |
| IPC主分类号 | G06V10/766 |
| 权利人 | 广东技术师范大学 |
| 发明人 | 袁圆; 周领; 李二勇 |
| 地址 | 广东省广州市天河区中山大道西293号 |
摘要文本
广东技术师范大学获取“一种透气窗帘布”专利技术,本发明公开了基于双任务学习和位姿图优化的视觉重定位方法及系统,方法包括:获取视频帧数据;构建全局位姿回归GPR模型,将所述视频帧数据输入所述GPR模型,提取帧间特征和帧内特征,获取全局位姿,其中所述GPR模型由ResNet34网络结合基于GNN的多视图融合模块构建;构建相对位姿估计RPE模型,将所述视频帧数据中的相邻视频帧输入所述RPE模型,获取预估相对位姿,其中所述RPE模型由FlowNet网络结合长短时记忆网络和Refine模块构建;根据所述全局位姿和所述预估相对位姿,获取视觉重定位结果。本发明能够为增强视觉重定位方法的性能、提高算法鲁棒性。 更多数据:搜索专利查询网来源:
专利主权项内容
1.基于双任务学习和位姿图优化的视觉重定位方法,其特征在于,包括:获取视频帧数据;构建全局位姿回归GPR模型,将所述视频帧数据输入所述GPR模型,提取帧间特征和帧内特征,获取全局位姿,其中所述GPR模型由ResNet34网络结合基于GNN的多视图融合模块构建;构建相对位姿估计RPE模型,将所述视频帧数据中的相邻视频帧输入所述RPE模型,获取预估相对位姿,其中所述RPE模型由FlowNet网络结合长短时记忆网络和Refine模块构建;根据所述全局位姿和所述预估相对位姿,获取视觉重定位结果。