← 返回列表
一种高精度边缘保护型局部立体匹配视差估计方法
摘要文本
本发明属于图像处理和计算机视觉领域,公开了一种高精度边缘保护型局部立体匹配视差估计方法,该方法包括:获取极线校准后的左、右目图像对,并将其输入密集卷积神经网络模型,获得初始匹配代价;代价聚合阶段,利用自适应侧窗技术获得代价聚合值;视差计算阶段,采用胜者为王策略寻找区域内匹配代价最小的像素点对应的视差值;视差后处理阶段,利用左右一致性检测判断是否为可靠像素点;对于不可靠像素点通过最小生成树技术分割视差图,将同一图像块内的可靠像素点传播到不可靠像素点,获得最佳视差值;最后根据最佳视差值得到视差图。本发明解决了现有局部立体匹配方法在边缘及复杂纹理区域表现效果差的问题。 来源:百度马 克 数据网
申请人信息
- 申请人:南京邮电大学通达学院
- 申请人地址:225127 江苏省扬州市邗江区润扬南路33号
- 发明人: 南京邮电大学通达学院
专利详细信息
| 项目 | 内容 |
|---|---|
| 专利名称 | 一种高精度边缘保护型局部立体匹配视差估计方法 |
| 专利类型 | 发明申请 |
| 申请号 | CN202311588017.9 |
| 申请日 | 2023/11/27 |
| 公告号 | CN117455969A |
| 公开日 | 2024/1/26 |
| IPC主分类号 | G06T7/33 |
| 权利人 | 南京邮电大学通达学院 |
| 发明人 | 张杨; 何超; 宋波 |
| 地址 | 江苏省扬州市邗江区润扬南路33号 |
专利主权项内容
1.一种高精度边缘保护型局部立体匹配视差估计方法,其特征在于:所述方法包括以下步骤:步骤1、获取极线校准后的左、右目图像对;步骤2、将步骤1获取的待匹配的左、右目图像对输入密集卷积神经网络模型;步骤3、估算左、右目图像特征值之间的相似性,得到初始匹配代价;步骤4、对步骤3得到的初始匹配代价利用自适应侧窗技术进行代价聚合;步骤5、视差计算阶段采用胜者为王(winner takes all)的方法,将目标像素在一个区域内寻找匹配代价最小的像素点对应的视差值;步骤6、视差细化阶段利用左右一致性检测判断是否为可靠像素点;步骤7、使用最小生成树技术对视差图进行图像分割,得到分割图块;步骤8、对于不可靠像素点,根据分割图块将搜索区域内的可靠像素点传播到不可靠像素点,从而获得最佳视差值;步骤9、根据最佳视差值得到视差图。