首页>论文>正文
日期
11/13
2008
咨询
  • QQ扫一扫

  • Vision小助手
    (CMVU)

一种基于高斯尺度空间的遥感图像匹配算法
收藏
2008-11-13 13:12:47来源: 祁 凯 吴秀清 王鹏伟 尹叶飞

摘  要

    图像匹配是计算机视觉和模式识别中的基本手段,有着广泛的应用范围。本文提出一种匹配算法。利用高斯尺度空间提取图像的尺度不变特征点,使用特征点周边灰度的统计信息对特征点进行表征,采用基于密度的DBScan聚类算法获取最终的匹配结果。该算法能够良好的解决位移、旋转等相差较大的遥感图像之间的匹配问题,并且具有较快的速度。
关键词: 遥感图像 图像匹配 高斯尺度空间 特征点匹配

概  述

    图像匹配技术是根据已知的图像模块(模板图)在另一幅图像(搜索图) 中寻找相应或相近模块的过程,它是计算机视觉和模式识别中的基本手段,在资源分析、气象预报、医疗诊断、交通管理、文字识别、图像检索以及景物分析等领域中获得了广泛应用。
    根据应用场合的不同,相应的图像匹配算法也有着很大的差别。已有的图像匹配算法大致上可分为两类: 基于图像区域的匹配和基于图像特征的匹配。基于图像区域的匹配通常是根据图像区域的灰度信息来进行匹配,常用的方法有:互相关方法[1],基于FFT的频域相位匹配方法[2],以及图像矩匹配方法[3]等。这些方法虽然比较直观,匹配精度较高,容易实现,但速度一般比较慢,且易受光照条件的影响,实际应用中很少使用。而基于特征的匹配方法[4] [5]通过提取图像特征点进行匹配,大大减少匹配过程的计算量,且特征点的提取过程可以减少噪声的影响,对灰度变化、图像形变等都有较好的适应能力。所以基于图像特征的匹配在实际中的应用越来越广泛。
    本文将基于区域和基于特征的匹配方法有效结合,提出了一种新的匹配算法,首先利用高斯尺度空间提取图像的尺度不变特征点,然后使用特征点周边灰度的统计信息对特征点进行表征。统计灰度信息的方法有很多种,本文采用Moran循环自相关模板,不仅可以保证良好的匹配效果,而且保持了特征点的旋转不变性;最后在特征点之间实现匹配并采用基于密度的DBScan聚类算法获取最终的匹配结果。实验证明该算法能够良好的解决位移、旋转等相差较大的遥感图像之间的匹配问题,并且速度较快。

高斯尺度空间

    为了获得对事物良好的观测效果,需要从多尺度上理解事物,由此发展了多种多尺度的解决方法,如金字塔方法,小波分解等。实际上这些多尺度方法都是通过对空间的不同采样来完成的。而尺度空间表示法(Scale-Space representation)是一种特殊的多尺度表示法,它包含一个连续尺度参数,并对所有尺度均采用同样的空间采样。正如Witkin(1983)[6]介绍的概念,一个信号的高斯尺度空间表示是将原始信号卷积一个单参数的高斯核函数从而变换到一系列的单参数派生信号族。


基于尺度不变特征点的匹配方法



     在得到一系列的高斯差值图像以后,通过检测其局部极值来得到特征点。对于每一个尺度空间的高斯差值图像,将每个采样点的值和它周围八个点以及上下两个高斯差值图像对应的九个点比较,若其大于或小于周围所有点的值则称其为局部极值点。通过对所有尺度的高斯差值图像进行局部极值点检测后,将所有尺度下均存在的局部极值点作为最后的特征点。

3.2  特征点表征

    对每一个特征点而言,需要找到用于表征此特征点的矢量,通过特征点描述矢量之间的比较,在搜索图上找到模板图像特征点的同名特征点。本文采用循环Moran自相关模板获得特征矢量。如下图所示:

    对于中心点像素,将模板所对应的像素组成一个序列,计算这个序列与中心点的卷积及协方差,然后分别计算均值,公式如下:


3.3特征点匹配

    本文使用欧氏距离作为特征点表征矢量距离度量,对抽取的模板图像和搜索图的特征点进行一一对应的匹配。
    特征点匹配过程中,错误匹配很难避免。由于错误匹配点在图像上接近均匀分布,因此密度较小,而正确匹配点区域密度较大,可以使用DBSCAN算法进行聚类以获取正确匹配点。
    DBSCAN算法是1996年提出的基于密度的聚类算法[10]。在该算法中,类被看作是一个个按一定的规则确定的最大密集区域,被稀疏区域分离开来。没有被包含在任何类中、即存在与稀疏区域中的对象被认为是噪声。采用该算法形成的聚类形状可以是任意的,并且不受异常值(噪声)的影响。
    DBSCAN算法的聚类过程基于以下事实:一个类可以由其中的任意一个核心对象唯一确定。等价的可表述为:
    (1)给定任意满足核心对象的点p,从点p关于EPS和MinPts密度可达的所有对象组成的集合构成一个类,p属于该类;
    (2)假定C是关于EPS和MinPts的类,p是类C中的一个核心对象,那么类C等价于从p关于EPS和Minpts密度可达的点的集合。
    在实验中,针对特征点集中的每一个点p,确定对象点p是否为核心对象。若p是核心对象,那么就创建一个初始类C,C中包含点p及从p基于密度直接可达的所有点。然后确定该邻域中的每一个特征点q是否为核心对象。如果是核心对象,那么就将其 -邻域内所有特征点追加到C中。这一过程一直持续到没有新的特征点可以追加到C中为止。从该过程可以看出:类C是一个基于密度可连接的、基于密度可达性为最大的特征点集。
    通过聚类,就可以准确的从搜索图上得到可能存在匹配的区域。最后通过仿射变换获得匹配参数,实现图像匹配。

实验及结论

    在主频为Pentium 4 1.7G, 内存512M的PC上用VC6进行实验。对10组光学同源图像和5组光学异源图像进行匹配,搜索图大小约为2000×2000,模板图大小约为256×256。其中10组光学同源图像全部匹配成功,5组光学异源图像有4组成功,1组由于模板图像对比度较差,无法提取出足够的特征点而失败。
    下面给出一组实验结果。模板图像与搜索图是异源可见光遥感图像,模板相对于搜索图有一定的 位移和旋转。图2表示搜索图像提取的特征点位置。图3表示模板图像提取的特征点位置。匹配特征点如图4所示。最终匹配结果如图5所示。

 

 

 本文方法与灰度相关算法和基于小面元的匹配方法[11]进行了比较,结果列表如下:

    可见与其它方法相比,本文方法能够有效的进行图像的匹配。由于匹配不直接依赖于图像区域的灰度信息,而是通过提取图像特征点进行,因而匹配速度较快,而且对旋转、灰度变化等具有较好的抗干扰性。

参 考 文 献

[1]Xu Qing.X, "A correlation–relaxation- labeling framework for computing optical flow template matching from a new perspective", IEEE Trans on Pattern Analysis and Machine Intelligence, 1995,Vol 17(6), 843-855
[2] De.E.C and Morandi.C, "Registration of Translated and Rotated Images using Finite Fourier Transforms.,IEEE Trans on Pattern Analysis and Machine Intelligence,1987 Vol. 9(5), pp 700-703
[3] Goshtasby.A, Stoclornan.C, Page.C.V "A Region-based Approach to Digital Image Registration with Sub-pixel Accuracy", IEEE Trans. on Geoscience and Remote Sensing, 1986 Vol. 24(3), pp390-399
[4] Ali, M; Clausi, D; Using the Canny edge detector for feature extraction and enhancement of remote sensing images, Geoscience and Remote Sensing Symposium, 2001. IGARSS '01. IEEE 2001 International, Volume 5, 9-13 July 2001 Page(s):2298一2300 vol.5
[5] Dubuisson.M.P and Jain A.K, "A modified Hausdorff distance for object matching", In Proc.12th Int.Conf Pattern Recognition, Jerusalem, Israel, 1994,566-568
[6] A. P. Witkin, Scale-space filtering, in Proc. 8th Int. Joint Conf. Art. Intell, (Karlsruhe, West Germany), Aug. 1983.pp. 1019-1022
[7] T. Lindeberg, Scale-space behaviour of local extrema and blobs, J. of Mathematical Imaging and Vision, Mar. 1992,vol. 1, pp. 65-99
[8] Mikolajczyk, K., and Schmid, C. 2002. An affine invariant interest point detector. In European Conference on Computer Vision (ECCV),Copenhagen, Denmark, pp. 128-142.
[9] Mikolajczyk, K., Zisserman, A., and Schmid, C. 2003. Shape recognition with edge-based features.In Proceedings of the British Machine Vision Conference,Norwich, U.K.
[10] W. Y Ma and B. Manjunath. Netra: A Toolbox for Navigating Large Image Databases. Proc. IEEE Int'I Conf. Image Processing. 1997, pp.568-571
[11] 牛宗标,吴秀清,李 滔. 基于小面元方法的光学遥感图像快速匹配算法. 计算机工程.2006,32(1),203-205.