1. 研究目的与意义
基于正则化方法获取密集视差图(disparity map)是图像匹配的新方法,现有正则化方法中正则项都融合图像梯度场信息对初始视差图内部平滑并保持边缘的不连续性,它虽可以定位视差图中物体的边缘信息,但较多图像边界残留的痕迹被带入视差图平坦区域中。
光流估计反映了目标物体的运动状态且计算的运动边界与物体边界相吻合,因此本文对左右图像采用了偏差较大的光流估计方法,利用携带景物深度信息的光流场构造了融合光流信息的各向异性的视差图正则项。
最后利用融合光流信息的正则项构造了新的能量函数并和现有方法进行比较,实验结果证明,无论从视觉评价上还是视差图客观指标来看,本文的方法都取可得了更优的结果。
2. 国内外研究现状分析
陈思等人[1]针对传统dp算法精度不高,出现条纹瑕疵以及边界区域明显误匹配等问题,提出了一种新的立体匹配算法。该算法采用水平、垂直及物体边界多方向约束作为平滑性约束,物体边界方向约束针对物体边界像素点,以前一行边界点的视差信息对当前边界点进行约束,强化物体边界像素点的视差不连续性,提升了边界区域像素点匹配准确率,大大减少了边界误匹配现象。由于物体表面的纹理信息会影响物体边界方向约束的准确性,对物体的边缘提取方法进行了处理,使提取的物体边缘只保留物体边界轮廓信息。
倪炜基等人[2]针对现有立体匹配算法难以兼顾匹配精度和速度的不足,提出了一种基于联合匹配代价的局部方法。首先,根据视差在同一色彩分割区域内平滑变化的假设,提出了一种利用参考图像和目标图像的色彩分割信息获得的基于任意形状和大小支持区域的匹配代价;然后在rgb色彩空间中,通过由窗口内的平均匹配误差、误差方差及较大窗口的偏向误差构成的窗口选择评价函数,获得基于自适应矩形窗口的匹配代价;最后,将这两种匹配代价进行有机的结合构成联合匹配代价,并通过局部优化方法获得稠密视差图。
赖小波等人[3]针对绝大多数立体匹配算法的相似性测度过分依赖于图像灰度统计特性的问题,提出了一种对光照变化不敏感的立体匹配算法.首先,研究了census非参数变换并分析了其局限性;其次,为了在立体匹配时能够考虑像素的空间位置信息,对于变换窗口内与中心像素的相对位置大于一个单位的各邻域像素,将其灰度值通过周围4个像素的灰度值插值获得;最后,再对图像进行census非参数变换和立体匹配,得到致密的视差图.实验结果表明,该算法结构简单,计算效率高,即使在非理想光照条件下也能够获得满意的立体匹配结果,具有很强的稳健性.
3. 研究的基本内容与计划
了解光流法的基本原理和国内现状以及它的意义,把它与立体匹配的视差图联系起来,对左右图像采用光流估计。利用携带景物深度信息的光流场构造融合光流信息的各向异性的视差图正则项。最后利用融合光流信息的正则项构造新的能量函数并和现有方法进行比较。
2012年2月 完成开题报告,做好前期准备。
2012年3月 收集相关书籍及其文章,了解国内外的相关技术及其研究报告,深入学习matlab软件和有关书籍。
4. 研究创新点
首先利用Forstner算子对图像中易于跟踪的特征点进行提取;然后利用立体视觉方法计算这些特征点的三维坐标;在此基础上,进一步结合码盘信息对前后帧图像中的特征点进行预测和跟踪,从而最终实现了光流的准确提取。
实验表明,该方法比传统方法具有速度更快、准确性更高的优点。
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。