基于区域特性的Curvelet变换图像融合算法
   来源:现代电子技术     2021年01月15日 18:02

王坤臣+孙权森

摘  要: 为克服小波变换在二维或更高维度空间分析中的缺陷,提高图像融合质量,提出基于二代Curvelet变换的图像融合改进算法。引入可以有效分析图像中的曲线奇异性,能更加合理处理图像边缘信息的Curvelet变换对图像进行分解,对图像分解后的低频部分采用自适应阈值的区域方差高斯加权融合方法,增加图像像素之间的关联,并有效保留细节和边缘。对高频部分采用区域能量融合方法来降低噪声,增强图像的细节。采用该算法对多组不同图像进行融合实验,并用信息熵、交叉熵、相关系数、空间频率等对融合图像进行客观评价。实验结果表明,该算法优于传统的融合规则和算法,能在保持更好清晰度的同时获得更丰富的图像内容。

关键词: 图像融合; Curvelet变换; 自适应阈值; 区域特性; 区域频率

中图分类号: TN919?34; TP391                 文献标识码: A                      文章编号: 1004?373X(2015)02?0077?06

Image fusion algorithm with Curvelet transform based on regional feature

WANG Kun?chen, SUN Quan?sen

(Department of Computer Science and Engineering, Nanjing University of Science & Technology, Nanjing, 210094, China)

Abstract: In order to overcome the weakness of wavelet transform in 2D or higher dimensional spatial analysis and improve quality of image fusion, a modified image fusion algorithm based on Curvelet transform is proposed. Curvelet transform which can effectively analyze singularity of a curve and rationally process edge information in an image is introduced to decompose images. An adaptive threshold regional variance and Gaussian?weighted fusion algorithm is used in low?frequency region to enhance the correlation between pixels in an image and preserve its details and edges effectively. The regional energy fusion method is applied in high?frequency region to reduce noise and enhance the details of the image. Many fusion experiments of different images were carried out with the algorithm. The fusion results were evaluated by information entropy, cross entropy, correlation coefficient and space frequency. The experiment results indicate that the proposed algorithm is more outstanding than the conventional fusion rules and methods, and can obtain better resolution and more rich image content.

Keywords: image fusion; Curvelet transform; adaptive threshold; regional feature; regional frequency

0  引  言

近些年来,多传感器图像融合理论研究日渐深入,应用领域也日益广泛,在医学[1]、机器视觉、环境保护和遥感[2]等领域都取得了比较广泛的关注和应用。图像融合是指将配准后的图像采用一定的方法融合在一起的技术,由于待融合的多幅图像之间具有信息的冗余性和互补性,所以融合过程需要在降低冗余信息影响的同时尽量提取互补信息。

早期的图像融合尝试均是在空间域上实现的,运用的主要算法有加权平均法、主成分分析法、Brovery变换融合算法。随后,陈武、曹喆等人将小波变换应用到图像融合领域,提出基于小波系数方向的子带系数选择策略[3?4]。小波分析兼具多分辨率和时频局部化特性,成为图像融合的重要技术手段。多尺度分析工具[5?6]不断的发展,本文将真正意义上的二维信号分析工具Curvelet引入图像融合,根据图像的特点,提出一种基于区域自适应特性的Curvelet域融合算法,对Curvelet分解后的低频和高频子带进行融合操作,在低、高频子带采用不同的融合规则。实验表明,本文算法优于传统的图像融合算法。

1  Curvelet变换

1999年,Candes和Donoho等人在Ridgelet变换的基础上提出了连续曲波(Curvelet一代)变换,然而其变换过程数学实现较为复杂。于是Candes等人在2002年提出第二代Curvelet变换,并于2005年提出两种基于第二代Curvelet变换理论的快速离散实现方法[7]。二代Curvelet较第一代变换更加简单,冗余度更低,运算更为迅速,实现也更加方便。与传统小波变换相比,Curvelet变换更适于刻画图像的几何特征,如曲线、直线等,采用“楔形基”来逼近[C2](二阶连续可微)的奇异点,充分考虑奇异点的几何形状,并具有任意角度的方向性(各向异性),更适合对图像的处理与应用,此外,Curvelet变换对图像的几何特征(曲线、直线)具有更好的系数表达能力,采用少数较大的Curvelet变换系数进行表示,克服了小波变换传播重要特征到多个尺度上的缺陷,变换后能量更加集中,更利于跟踪和分析图像中的重要特征[8]。

Curvelet变换有两种不同的实现算法,这两种方法的主要区别在于不同尺度和方向下空间网格的选择方法不同。下面简单介绍两种方法[9]:

(1) USFFT算法

对[f[t1,t2]∈L2(R2)]做二维FFT变换得到Fourier采样序列[F[n1,n2]],其中[-n2≤n1,n2<n2];

针对频域中不同尺度和方向参数[(j,l)],对[F[n1,n2]]进行插值得到[F[n1,n2-n1tanθ1]],其中[(n1,n2)∈Pj];

将[F[n1,n2-n1tanθ1]]与拟合窗口[Uj(width=length2]相乘之后得到如下结果,即[Fj,l[n1,n2]=][F[n1,n2-n1tanθ1]Uj(n1,n2)];

对序列[Fj,l[n1,n2]]做二维FFT逆变换,得到Curvelet系数[CD(j,l,k)]。

(2) Wrapping算法

对[f[t1,t2]∈L2(R2)]做二维FFT变换得到Fourier采样序列[F[n1,n2]],其中[-n2≤n1,n2<n2];

针对频域中不同尺度和方向参数[(j,l)],用拟合窗[Uj(width=length2)]乘以[F[n1,n2-n1tanθ1]];

围绕原点Wrap局部化F,[Fj,l[n1,n2]=][WUj,lF[n1,n2]];

对序列[Fj,l[n1,n2]]做二维FFT逆变换,得到Curvelet系数[CD(j,l,k)]。

对比以上两种方法,都是先通过FFT变换到频域,再在频域中进行局部化,然后对局部化后的结果做二维FFT逆变换得到离散Curvelet变换系数。

2  基于区域特性的Curvelet图像融合算法

2.1  图像融合流程

基于Curvelet变换的图像融合的实现流程如图1所示。算法的实现步骤表述如下:

(1) Curvelet分解。将配准好的源图像A和B进行Curvelet变换,得到相应的Curvelet系数集合。分解尺度和方向为默认值。分解后得到的矩阵C为一个胞矩阵,其中[Cjl]就表示是一个二维矩阵,代表尺度[j]、方向[l]上的所有系数,高尺度对应高频系数。

(2) 图像融合。对于分解后的低频子带和所有高频子带,使用基于区域特性的融合规则进行判别和融合处理,得到各尺度上融合后的Curvelet系数。

(3) Curvelet重构。重构是分解的逆过程,对融合后的Curvelet系数进行Curvelet逆变换,得到重构的融合图像,该图像包含原有多幅图像中的信息。

<E:\王芳\现代电子技术201502\Image\42t1.tif>

图1 基于Curvelet的图像融合流程图

2.2  融合规则研究

融合规则是图像融合算法的核心,其对最终的融合效果有着决定性作用。分解后的低频和高频子带具有不同的物理信息,低频子带表征图像的近似部分,而高频子带表征图像的细节部分。通常对于多分辨率融合,在高频和低频上采用不同的融合规则。总的来说,现有的融合规则可分为两大类:基于像素的融合规则和基于区域的融合规则。

2.2.1  融合规则分类

(1) 基于像素的融合规则

Burt最早提出基于像素选取的融合规则,基于像素点绝对值最大来选取最终的融合像素值。Petrovic等人提出考虑分解层内各子带图像相关性的像素选取融合规则。近几年,融合规则层出不穷,陈武等人针对小波处理图像边缘的不足,根据人类视觉系统对局部对比度敏感的特性,采用了基于区域对比度的像素选取融合规则。基于像素的融合规则具有实现简单、融合速度快的优点,但其仅仅以单个像素作为融合对象,并未考虑图像像素间的相关性,因此融合效果较差,适用场合也非常有限。

(2) 基于区域的融合规则

考虑到图像像素之间的相关性,Burt等人提出基于区域特性选择的加权平均融合规则,将系数值的融合选择与其所在的局部区域联系起来。Qingping Li等人则利用区域频率划分区域进行融合实验[10]。Curvelet提出后,玄立超等人提出了基于Curvelet变换的区域能量高频融合策略[11]。基于区域的融合规则就是将某位置邻域的能量、梯度、方差等特征作为一种测度来指导该位置处的系数选取,邻域大小可以是3×3、5×5等。由于基于窗口区域的融合规则考虑了图像相邻像素间的相关性,因此减少了融合像素的错误选取,从而提高了融合效果。

结合现有融合规则的优点和不足,本文提出以下融合规则对高、低频分别处理。对低频采用基于区域方差显著性的加权融合规则,充分考虑到邻域像素间的关联性,并有效保留细节和边缘。高频采用区域能量匹配融合规则,抑制噪声的同时能更好反映图像区域特征。

2.2.2  低频子带融合规则

低频子带是包含了原图像的主体信息,决定了图像的大致轮廓。这里采取基于区域方差显著性的加权融合规则对低频系数进行处理,并将匹配度与自适应阈值比较来确定融合策略。实现过程如下:

(1) 计算区域方差显著性

[G(X,p)=q?Qw(q)C(X,q)-u(X,p)2]        (1)

式中:[G(X,p)]为以点[p]为中心的局部区域[Q]的区域方差显著性;[w(q)]为权值,权值通过行和列的高斯分布加权相加得到;[C(X,q)]为区域[Q]形成的矩阵;[u(X,p)]为图像X的低频系数矩阵内区域[Q]的平均值。

计算区域方差匹配度:[M(p)=2?q?Qw(q)C(A,q)-u(A,p)C(B,q)-u(B,p)G(A,p)+G(B,p)]  (2)

式中:[M(p)]表示图像A和B低频系数在[p]点的局部区域方差匹配度,数值在0~1之间变化,其值越小表明两幅图像低频系数在[p]点的相关程度越低。

融合策略的确定。设T为匹配度阈值,不同于传统的经验选取[8?9],此处[T]为自适应阈值,其定义为:

[T=2G(A,p)?G(B,p)G(A,p)2+G(B,p)2]      (3)

式中:[G(A,p)]和[G(B,p)]分别为源图像A,B区域方差显著性。当[M(p)<T]时,采用选择融合策略:

[C(F,p)=C(A,p),G(A,p)≥G(B,p)C(B,p),G(A,p)<G(B,p)]   (4)

当[M(p)≥T]时,采用加权平均融合策略:

[C(F,p)=WmaxC(A,p)+WminC(B,p),G(A,p)≥G(B,p)WminC(A,p)+WmaxC(B,p),G(A,p)<G(B,p)] (5)

其中,

[Wmin=0.5-0.51-M(p)1-T]      (6)

[Wmax=1-Wmin]          (7)

式中:[C(A,p)],[C(B,p)]分别为图像A,B的低频系数在[p]点的值。

该策略是基于邻域像素间的关联性,并且是基于区域方差,可以有效地保留细节和边缘,因此采用该策略得到的融合图像将比较清晰,细节比较丰富。

2.2.3  高频子带融合规则

不同尺度及方向下的高频系数矩阵,其中包含了图像的细节特征,由于人眼对于单个像素的灰度取值并不敏感,图像清晰度是由区域内像素共同体现的。因此传统的基于绝对值取大的高频融合规则是比较片面,忽略了像素之间的关联性,并且忽略了图像之间的相关性。所以这里引入基于局部能量匹配的融合规则,可以有效抑制噪声,并且能更好地反映图像的区域特征。实现过程如下:

(1) 计算区域能量显著性

[Ej,l(m,n)=q?QCj,l(i,j)2]        (8)

式中,[Ej,l(m,n)]表示尺度[j]和方向[l]下高频系数的局部区域能量;[Q]为以点[P(m,n)]为中心选取的局部区域。

(2) 计算区域能量匹配度。[Mj,l(m,n)]的取值为0~1,取值越小表明相关程度越低。

[Mj,l(m,n)=2q?QCAj,l(i,j)CBj,l(i,j)EAj,l(m,n)+EBj,l(m,n)]    (9)

(3) 融合策略的选取

设[T1]为能量匹配度阈值,一般取0.5~1,这里根据经验取0.85。当[Mj,l(k1,k2)<T]时,采用选择融合策略:

[CFj,l(m,n)=CAj,l(m,n),EAj,l≥EBj,lCBj,l(m,n),EAj,l<EBj,l]       (10)

当[Mj,l(k1,k2)≥T]时,采用加权融合策略:

[CFj,l(m,n)=WmaxCAj,l(m,n)+WminCBj,l(m,n),EAj,l≥EBj,lWminCAj,l(m,n)+WmaxCBj,l(m,n),EAj,l<EBj,l] (11)

其中,

[Wmin=0.5-0.51-Mj,l(m,n)1-T1]       (12)

[Wmax=1-Wmin]            (13)

该策略基于区域空间能量,可以有效保留图像的边缘信息,能得到细节比较出众的融合图像。

3  图像融合效果评价指标

对于不同融合目的的图像,需要采用不同的评价标准,从而对融合结果进行客观正确的评价[12]。例如,提高信息量时,对于融合图像的信息量是否增加,可以根据互信息、交叉熵、熵和标准差等指标来评价;提高图像清晰度时,往往是要求在保持原有信息不丢失的情况下,增强图像的细节信息和纹理特征,评价这种目的的融合时可选用平均梯度、空间频率等指标来评价。需要注意的是,客观评价法离不开主观评价,因此应该将两者结合起来进行综合评价。主观评价主要是由人眼来观察区分结果的好坏,但人眼分辨力有限,所以需要引入客观评价指标。用来评价融合结果的客观指标[13]如下:

(1) 信息熵

信息熵可以从概率分布的角度来衡量图像的丰富程度,图像信息熵越大,表明图像所包含的信息量越大。熵值的大小可以反映图像对细节的表达能力。其定义如下:

[H=-l=0L-1p(l)log2(p(l))]         (14)

式中:[H]代表信息熵;[p(l)]表示图像中像素灰度级为[l]的出现概率,即所有灰度为[l]的像素点数[N1]与图像中所有像素点数[N]之比。

(2) 交叉熵

交叉熵用来反映两幅图像的信息差异。通过对融合图像和源图像交叉熵的计算,就可以得到两幅图像所包含信息量的差异。一般来说,交叉熵越小,表明融合图像从源图像中提取的信息越多,信息差异越小。其定义如下:

[CE(A,F)=l=0L-1PA(l)log2PA(l)PF(l)]     (15)

式中[PA(l)]和[PF(l)]分别为源图像A和融合图像F的灰度级概率分布。通常把两幅源图像分别和融合图像的交叉熵的的均方根定义为均方根交叉熵[RCE]。即:

[RCE=CE2(A,F)+CE2(B,F)2]     (16)

通过[RCE]可以表示融合图像F和图像A、B之间的联合差异。一般情况下均方根交叉熵越小,融合图像继承的信息量越多,信息差异越小,融合效果也就越好。

(4) 相关系数

图像的相关系数反应了两幅图像的相关度。相关系数越大,其融合效果越好。

其定义如下:

[Corr(Ia,Ib)=i,j(Iai,j-eIa)(Ibi,j-eIb)i,j(Iai,j-eIa)2(Ibi,j-eIb)2]  (17)

式中:[Iai,j],[Ibi,j]为两幅图像在[(i,j)]点的灰度值;[eIa]和[eIb]为两幅图像的均值。把两幅源图像分别和融合图像的相关系数的均方根定义为均方根相关系数[RC],即:

[RC=Corr(Ia,If)2+Corr(Ib,If)22]   (18)

一般来说,均方根相关系数越大,融合图像从源图像中获得的信息量越多,融合效果也就越好。

(5) 空间频率

空间频率可以反映出融合图像的细节表达能力,所以通常作为度量图像清晰度的指标。空间频率定义为:

[SF=RF2+CF2]        (19)

式中:[RF]和[CF]分别为行频和列频,[f(i,j)]为[(i,j)]处的灰度值。

[RF=1mni=1mj=2nf(i,j)-f(i,j-1)2] (20)

[CF=1mni=2mj=1nf(i,j)-f(i-1,j)2] (21)

一般来讲,空间频率越大,图像的层次越多,融合图像就越清晰。

4  实验结果对比分析

选用两组不同领域图像作为源图像进行融合实验,第一组是医学图像,大小为256×256;第二组是多聚焦图像,大小为256×256。第三组是多波段图像,大小为512×512。实验中高、低频子块大小定义为3*3,分别采用基于低频加权平均、高频绝对值最大的离散小波变换(方法1)、基于低频加权平均和高频区域频率的离散小波变换(方法2)、基于文献[11]的Curvelet变换(方法3)、基于本文算法实现。

4.1  医学图像融合结果分析

医学图像融合结果分析如图2,表1所示。

表1  医学图像融合的指标评价结果

图2和表1分析如下:

(1) 基于小波变换的融合算法,基于二代Curvelet变换的融合算法的比较:

主观上看,基于小波变换的融合图像(c)(d)明显在边缘的处理上不够清晰,会发现有方块效应,使得融合图像没有任何意义;而基于二代Curvelet变换的融合图像(e)(f)就很好的保留了图像的边缘信息,融合图像更加自然。

<E:\王芳\现代电子技术201502\Image\42t2.tif>

图2 医学图像的融合结果图

(2) 传统的融合算法和本文融合方法的比较:

表1中,医学图像融合是为了获得更多信息,将图3(f)与(c)、(d)、(e)对比来看,(f)均方根交叉熵更小,即本文融合算法融合结果从源图像继承了更多信息。整体来看,本文算法融合结果也比其他融合结果更加清晰。综上所述,医学图像的融合实验中,基于Curvelet变换的本文算法优于传统Curvelet、小波变换的融合算法。

4.2  多聚焦图像融合结果分析

多聚焦图像融合结果分析如图3,表2所示。

<E:\王芳\现代电子技术201502\Image\42t3.tif>

图3 多聚焦图像的融合结果图

图3和表2分析如下:

(1) 基于小波变换的融合算法,基于二代Curvelet变换的融合算法的比较:

主观来看,基于小波变换的融合图像(c)、(d)在小钟表的边缘有虚影,使得融合图像比较模糊,边缘处理不够细致。而基于Curvelet变换的图像就没有这一缺点。

(2) 融合方法之间的对比:

表2中,基于Curvelet变换的融合图像包含有更丰富的信息,并且与源图像相关性更高。对比交叉熵和相关系数可以看出,本文融合算法比文献[11]融合算法从源图像中继承更多的信息的同时保留了更高的相关性。

综上所述,多聚焦图像融合实验中,本文对于高、低频的融合规则比传统融合规则可获得更好的融合效果。

表2 多聚焦图像融合的指标评价结果

4.3  多波段遥感图像融合结果分析

多波段遥感图像融合结果分析如图4,表3所示。

<E:\王芳\现代电子技术201502\Image\42t4.tif>

图4 多波段遥感图像的融合结果

表3 多波段遥感图像融合的指标评价结果

图4和表3分析如下:

(1) 基于小波变换的融合算法,基于二代Curvelet变换的融合算法的比较:主观来看,基于Curvelet变化的融合图像(f)(g)相对基于小波变换的融合图像(d)、(f)来说,图像对比度更大,边缘细节更清晰。

(2) 融合方法之间的比较:表3中,从信息熵、交叉熵、相关性来看,本文融合方法都优于传统融合算法,从源图像中继承了更多的信息,但图像频率略有降低。

综上所述,多波段遥感图像的融合实验中,基于Curvelet变换的融合算法优于小波变换融合算法,本文算法中的高、低频系数基于区域系数相关性法也比传统的模值取大取平均方法更适用于多波段图像的融合。

总体来说,基于二代Curvelet变换的本文融合算法在不同领域的图像融合中效果比较理想。

5  结  语

本文分析了传统小波变换在边缘处理上的不足,使用了多分辨率分析中具有多尺度多方向性的二代Curvelet变换,同时提出针对高、低频系数的融合规则,并对不同领域的图像做了大量的融合实验。实验结果表明,本文融合算法能较好的保持图像目标信息,同时边缘也比较清晰。但是,该算法也存在不足,Curvelet变化在图像的细节特征方面有天然的弱势;故结合多种小波[1]、基于区域分割[14]或借助其他技术[15]使得融合图像在保留目标信息的同时具有更好的细节特征和边缘轮廓是未来图像融合的研究重点。

参考文献

[1] JOSEPH Joby, BARHATTE Alka. Medical image fusion based on wavelet transform and fast curvelet transform [J]. International Journal of Engineering Development and Research, 2014, 2(1): 284?288.

[2] 张鹏辉.红外、微光/可见光图像融合算法研究[D].南京:南京理工大学,2013.

[3] 陈武,靳海兵,吴政,等.基于方向导数的多光谱图像快速融合新算法[J].计算机仿真,2009,26(10):257?260.

[4] 曹喆.一种区域特性的小波图像融合新算法[J].计算机工程与应用,2011,47(26):213?215.

[5] 杨扬.基于多尺度分析的图像融合算法研究[D].长春:中国科学院大学,2013.

[6] LI Hua?feng, CHAI Yi, LI Zhao?fei. Multi?focus image fusion based on nonsubsampled contourlet transform and focused regions detection [J]. Optik?International Journal for Light and Electron Optics, 2013, 124(1): 40?51.

[7] CANDES Emmanuel, DEMANET Laurent, DONOHO David, et al. Fast discrete Curvelet transforms [J]. Society for Industrial and Applied Mathematics, 2006, 5(3): 861?899.

[8] 冀晓涛.基于Curvelet变换的红外与可见光图像融合研究[D].西安:西安电子科技大学,2012.

[9] 孙岩.基于多分辨率分析的多传感器图像融合算法研究[D].哈尔滨:哈尔滨工程大学,2012.

[10] LI Qing?ping, DU Jun?ping, SONG Fu?zhao, et al. Region?based multi?focus image fusion using the local spatial frequency [C]// 2013 25th Control and Decision Conference. Guiyang, China: CCDC, 2013: 3792?3796.

[11] 玄立超.一种新的基于Curvelet变换的遥感图像融合算法[J].计算机技术与发展,2009,19(5):119?122.

[12] 韩瑜,蔡云泽,曾清.图像融合的客观质量评估[J].指挥控制与仿真,2013,35(4):1?6.

[13] 李俊山,杨威,张雄美.红外图像处理、分析与融合[M].北京:科学出版社,2009.

[14] 李华锋.多聚焦图像像素级融合方法研究[D].重庆:重庆大学,2012.

[15] 潘瑜.基于统计相关分析和视觉特性的图像信息融合方法及其应用研究[D].南京:南京理工大学,2012.

综上所述,多聚焦图像融合实验中,本文对于高、低频的融合规则比传统融合规则可获得更好的融合效果。

表2 多聚焦图像融合的指标评价结果

4.3  多波段遥感图像融合结果分析

多波段遥感图像融合结果分析如图4,表3所示。

<E:\王芳\现代电子技术201502\Image\42t4.tif>

图4 多波段遥感图像的融合结果

表3 多波段遥感图像融合的指标评价结果

图4和表3分析如下:

(1) 基于小波变换的融合算法,基于二代Curvelet变换的融合算法的比较:主观来看,基于Curvelet变化的融合图像(f)(g)相对基于小波变换的融合图像(d)、(f)来说,图像对比度更大,边缘细节更清晰。

(2) 融合方法之间的比较:表3中,从信息熵、交叉熵、相关性来看,本文融合方法都优于传统融合算法,从源图像中继承了更多的信息,但图像频率略有降低。

综上所述,多波段遥感图像的融合实验中,基于Curvelet变换的融合算法优于小波变换融合算法,本文算法中的高、低频系数基于区域系数相关性法也比传统的模值取大取平均方法更适用于多波段图像的融合。

总体来说,基于二代Curvelet变换的本文融合算法在不同领域的图像融合中效果比较理想。

5  结  语

本文分析了传统小波变换在边缘处理上的不足,使用了多分辨率分析中具有多尺度多方向性的二代Curvelet变换,同时提出针对高、低频系数的融合规则,并对不同领域的图像做了大量的融合实验。实验结果表明,本文融合算法能较好的保持图像目标信息,同时边缘也比较清晰。但是,该算法也存在不足,Curvelet变化在图像的细节特征方面有天然的弱势;故结合多种小波[1]、基于区域分割[14]或借助其他技术[15]使得融合图像在保留目标信息的同时具有更好的细节特征和边缘轮廓是未来图像融合的研究重点。

参考文献

[1] JOSEPH Joby, BARHATTE Alka. Medical image fusion based on wavelet transform and fast curvelet transform [J]. International Journal of Engineering Development and Research, 2014, 2(1): 284?288.

[2] 张鹏辉.红外、微光/可见光图像融合算法研究[D].南京:南京理工大学,2013.

[3] 陈武,靳海兵,吴政,等.基于方向导数的多光谱图像快速融合新算法[J].计算机仿真,2009,26(10):257?260.

[4] 曹喆.一种区域特性的小波图像融合新算法[J].计算机工程与应用,2011,47(26):213?215.

[5] 杨扬.基于多尺度分析的图像融合算法研究[D].长春:中国科学院大学,2013.

[6] LI Hua?feng, CHAI Yi, LI Zhao?fei. Multi?focus image fusion based on nonsubsampled contourlet transform and focused regions detection [J]. Optik?International Journal for Light and Electron Optics, 2013, 124(1): 40?51.

[7] CANDES Emmanuel, DEMANET Laurent, DONOHO David, et al. Fast discrete Curvelet transforms [J]. Society for Industrial and Applied Mathematics, 2006, 5(3): 861?899.

[8] 冀晓涛.基于Curvelet变换的红外与可见光图像融合研究[D].西安:西安电子科技大学,2012.

[9] 孙岩.基于多分辨率分析的多传感器图像融合算法研究[D].哈尔滨:哈尔滨工程大学,2012.

[10] LI Qing?ping, DU Jun?ping, SONG Fu?zhao, et al. Region?based multi?focus image fusion using the local spatial frequency [C]// 2013 25th Control and Decision Conference. Guiyang, China: CCDC, 2013: 3792?3796.

[11] 玄立超.一种新的基于Curvelet变换的遥感图像融合算法[J].计算机技术与发展,2009,19(5):119?122.

[12] 韩瑜,蔡云泽,曾清.图像融合的客观质量评估[J].指挥控制与仿真,2013,35(4):1?6.

[13] 李俊山,杨威,张雄美.红外图像处理、分析与融合[M].北京:科学出版社,2009.

[14] 李华锋.多聚焦图像像素级融合方法研究[D].重庆:重庆大学,2012.

[15] 潘瑜.基于统计相关分析和视觉特性的图像信息融合方法及其应用研究[D].南京:南京理工大学,2012.

综上所述,多聚焦图像融合实验中,本文对于高、低频的融合规则比传统融合规则可获得更好的融合效果。

表2 多聚焦图像融合的指标评价结果

4.3  多波段遥感图像融合结果分析

多波段遥感图像融合结果分析如图4,表3所示。

<E:\王芳\现代电子技术201502\Image\42t4.tif>

图4 多波段遥感图像的融合结果

表3 多波段遥感图像融合的指标评价结果

图4和表3分析如下:

(1) 基于小波变换的融合算法,基于二代Curvelet变换的融合算法的比较:主观来看,基于Curvelet变化的融合图像(f)(g)相对基于小波变换的融合图像(d)、(f)来说,图像对比度更大,边缘细节更清晰。

(2) 融合方法之间的比较:表3中,从信息熵、交叉熵、相关性来看,本文融合方法都优于传统融合算法,从源图像中继承了更多的信息,但图像频率略有降低。

综上所述,多波段遥感图像的融合实验中,基于Curvelet变换的融合算法优于小波变换融合算法,本文算法中的高、低频系数基于区域系数相关性法也比传统的模值取大取平均方法更适用于多波段图像的融合。

总体来说,基于二代Curvelet变换的本文融合算法在不同领域的图像融合中效果比较理想。

5  结  语

本文分析了传统小波变换在边缘处理上的不足,使用了多分辨率分析中具有多尺度多方向性的二代Curvelet变换,同时提出针对高、低频系数的融合规则,并对不同领域的图像做了大量的融合实验。实验结果表明,本文融合算法能较好的保持图像目标信息,同时边缘也比较清晰。但是,该算法也存在不足,Curvelet变化在图像的细节特征方面有天然的弱势;故结合多种小波[1]、基于区域分割[14]或借助其他技术[15]使得融合图像在保留目标信息的同时具有更好的细节特征和边缘轮廓是未来图像融合的研究重点。

参考文献

[1] JOSEPH Joby, BARHATTE Alka. Medical image fusion based on wavelet transform and fast curvelet transform [J]. International Journal of Engineering Development and Research, 2014, 2(1): 284?288.

[2] 张鹏辉.红外、微光/可见光图像融合算法研究[D].南京:南京理工大学,2013.

[3] 陈武,靳海兵,吴政,等.基于方向导数的多光谱图像快速融合新算法[J].计算机仿真,2009,26(10):257?260.

[4] 曹喆.一种区域特性的小波图像融合新算法[J].计算机工程与应用,2011,47(26):213?215.

[5] 杨扬.基于多尺度分析的图像融合算法研究[D].长春:中国科学院大学,2013.

[6] LI Hua?feng, CHAI Yi, LI Zhao?fei. Multi?focus image fusion based on nonsubsampled contourlet transform and focused regions detection [J]. Optik?International Journal for Light and Electron Optics, 2013, 124(1): 40?51.

[7] CANDES Emmanuel, DEMANET Laurent, DONOHO David, et al. Fast discrete Curvelet transforms [J]. Society for Industrial and Applied Mathematics, 2006, 5(3): 861?899.

[8] 冀晓涛.基于Curvelet变换的红外与可见光图像融合研究[D].西安:西安电子科技大学,2012.

[9] 孙岩.基于多分辨率分析的多传感器图像融合算法研究[D].哈尔滨:哈尔滨工程大学,2012.

[10] LI Qing?ping, DU Jun?ping, SONG Fu?zhao, et al. Region?based multi?focus image fusion using the local spatial frequency [C]// 2013 25th Control and Decision Conference. Guiyang, China: CCDC, 2013: 3792?3796.

[11] 玄立超.一种新的基于Curvelet变换的遥感图像融合算法[J].计算机技术与发展,2009,19(5):119?122.

[12] 韩瑜,蔡云泽,曾清.图像融合的客观质量评估[J].指挥控制与仿真,2013,35(4):1?6.

[13] 李俊山,杨威,张雄美.红外图像处理、分析与融合[M].北京:科学出版社,2009.

[14] 李华锋.多聚焦图像像素级融合方法研究[D].重庆:重庆大学,2012.

[15] 潘瑜.基于统计相关分析和视觉特性的图像信息融合方法及其应用研究[D].南京:南京理工大学,2012.

图像 算法 系数