系统工程与电子技术, 2023, 45(8): 2395-2404 doi: 10.12305/j.issn.1001-506X.2023.08.13

电子技术

基于图像特征的红外与低照度图像融合

王慧赢1, 王春平1, 付强1, 韩子硕2, 张冬冬1

1. 陆军工程大学石家庄校区电子与光学工程系, 河北 石家庄 050003

2. 中国人民解放军32356部队, 青海 西宁 710003

Infrared and low illumination image fusion based on image features

WANG Huiying1, WANG Chunping1, FU Qiang1, HAN Zishuo2, ZHANG Dongdong1

1. Department of Electronic and Optical Engineering, Shijiazhuang Campus, Army Engineering University of PLA, Shijiazhuang 050003, China

2. Unit 32356 of PLA, Xining 710003, China

通讯作者: 付强

收稿日期: 2022-03-25  

基金资助: 军内科研项目.  LJ20191A040155

Received: 2022-03-25  

作者简介 About authors

王慧赢(1992—),女,博士研究生,主要研究方向为图像处理、计算机视觉 。

王春平(1965—),男,教授,博士,主要研究方向为图像处理、火力控制理论与应用 。

付强(1981—),男,讲师,博士,主要研究方向为智能视觉与目标检测 。

韩子硕(1986—),男,博士研究生,主要研究方向为图像处理、计算机视觉 。

张冬冬(1993—),男,硕士研究生,主要研究方向为目标识别 。

摘要

针对难以独立分析红外图像和低照度图像场景中目标和背景信息的问题, 提出了基于图像特征的红外与低照度图像融合算法。首先, 针对性地对红外和低照度图像进行图像处理, 优化各自特性。其次, 采用非下采样剪切波变换对两者进行高低频分解。然后, 采用改进的拉普拉斯加权算法融合低频图像, 采用改进的脉冲耦合神经网络融合高频图像。最后, 经非下采样剪切波逆变换获取融合图像。实验结果表明, 所提算法可有效融合红外与低照度图像, 降低了噪声对融合图像的影响, 提高了融合图像的清晰度, 且图像对比度适中, 符合人眼视觉感知效果。

关键词: 低照度图像 ; 红外图像 ; 非下采样剪切波变换 ; 脉冲耦合神经网络 ; 图像融合算法

Abstract

Aiming at the problem that it is difficult to analyze the target and background information in the scene of infrared images and low illumination images independently, an infrared and low illumination image fusion algorithm based on image features is proposed. Firstly, the infrared and low illumination images are processed to optimize their characteristics respectively. Secondly, the non-subsampled shearlet transform is used to decompose them in high and low frequency. Thirdly, the improved Laplace weighted algorithm is used to fuse the low-frequency images. The improved pulse coupled neural network is used to fuse the high-frequency images. Finally, the fused image is obtained by non-subsampled shearlet inverse transform. Experimental results show that the proposed algorithm can effectively fuse infrared and low illumination images, reduce the impact of noise on the fused image, improve the clarity of the fused image, and the contrast of the image is moderate, which is suifable the visual perception effect of human eyes.

Keywords: low illumination image ; infrared image ; non-subsampled shearlet transform ; pulse-coupled neural network ; image fusion algorithm

PDF (14901KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

王慧赢, 王春平, 付强, 韩子硕, 张冬冬. 基于图像特征的红外与低照度图像融合. 系统工程与电子技术[J], 2023, 45(8): 2395-2404 doi:10.12305/j.issn.1001-506X.2023.08.13

WANG Huiying. Infrared and low illumination image fusion based on image features. Systems Engineering and Electronics[J], 2023, 45(8): 2395-2404 doi:10.12305/j.issn.1001-506X.2023.08.13

0 引言

红外与低照度图像融合技术在军事和民用领域中占有重要地位, 其应用涉及现代军事监控、目标跟踪、生物监测、自动驾驶等[1]。低照度图像是指在光照条件差的环境下所采集的图像, 特殊的成像环境导致其存在能见度低、信噪比低、细节易丢失等缺点[2]。红外图像是指红外传感器通过利用场景中背景与目标的辐射强度差异而形成的热感图像, 其仅仅突出了目标的轮廓信息[3-4]。随着多源图像融合技术的发展, 红外与低照度图像融合成为图像处理领域的研究热点。红外图像能够突出环境中的热目标, 并且抗干扰能力强, 将其与低照度图像融合, 可以清晰地反映出图像中的目标信息及场景细节。

目前, 针对多源图像融合的研究已经取得了很多成果。多尺度几何变换的图像融合方法得到了广泛的应用[5-6]。具有多分辨率特征的小波变换可以较好地反映图像的局部变化特征[7-9], 但并不适用于处理具有各向异性的奇异性特征图像, 且不具备移位不变性, 易导致融合图像的边缘或纹理信息不连续。因此, 文献[10]提出非下采样轮廓变换(non-subsampled contourlet transform, NSCT)方法, 该方法不仅继承了之前算法的优点, 同时还具有平移不变性, 将其应用到红外与可见光图像的融合中, 既突出了图像中的热目标, 又可以丰富纹理信息, 但融合后图像仍存在边缘模糊及纹理不清晰的问题。为解决上述问题, 文献[11]应用NSCT结合脉冲耦合神经网络(pulsecoupled neural network, PCNN)的图像融合方法进行研究, 使融合效果取得了一定程度的改善, 但NSCT算法计算量大, 运行速度慢。

为了解决NSCT计算复杂度高的缺点, 文献[12]应用非下采样剪切波变换(non-subsampled shearlet transform, NSST)代替NSCT对源图像进行分解。NSST不仅具备了NSCT的所有优点, 同时算法更加简单、计算耗时更短, 因此在多源图像融合方法中得到了广泛的应用。文献[13-15]对融合规则进行改进, 融合效果被进一步改善, 但仍存在边缘模糊、纹理信息丢失的问题。文献[16]提出了应用NSST与导向滤波相结合的图像融合方法, 去除了源图像上的部分噪声, 增强了图像边缘细节信息, 融合效果较好, 但该方法在对清晰度差的图像进行融合时, 会导致大量的细节信息丢失, 融合效果不佳。

以上各种融合算法虽然在融合效果及融合速度上取得了一定的成果, 但并没有考虑到源图像的自身特征, 未能充分利用源图像的目标及场景信息, 导致融合图像易受噪声影响, 且存在对比度差、清晰度不佳等问题。针对上述问题, 本文提出了一种针对红外与低照度图像特征的融合算法。首先, 通过红外与低照度图像的三维分布图、直方图, 对比分析其图像表现出的特征信息, 根据其特征信息对图像进行处理。为了凸显红外图像目标信息, 采用各向异性导向滤波对其进行去噪、平滑处理。为了增强低照度图像场景细节信息, 采用改进的广义全变分去噪算法结合巴特沃斯高通滤波,对其进行去噪、增强处理。在此基础上, 采用NSST对红外图像与低照度图像进行分解, 分别得到低频子带图像和高频子带图像。在融合规则上, 为了保留低频子带图像中的高频信息, 采用改进的拉普拉斯加权算法结合图像区域能量来融合低频系数。为了获得图像多个方向的梯度能量, 采用改进的空间频率作为PCNN神经元的外部激励融合高频系数。最后, 利用非下采样剪切波逆变换得到融合后的图像。

1 红外图像与低照度图像的特征分析

红外传感器通过探测物体发出的红外辐射, 将人眼不可见的辐射信息转换为人眼可见、清晰的红外图像。红外图像中目标(行人、车辆等)与背景(树木、道路等)的辐射亮度差异较大, 利于目标的识别, 但红外图像缺少细节信息, 无法对目标所处的环境以及目标本身的细节进行进一步的识别。低照度图像是指在光照不佳的环境或夜晚拍摄的图像, 相对于红外图像, 可以较为清晰地反映图像中场景的细节信息, 但目标特征不突出, 易被背景掩盖。

图 1是配准好的红外与低照度图像。通过对比观察可知, 红外图像中目标(行人、车辆)较为突出, 但场景细节信息(路灯、广告牌上的文字)缺失; 低照度图像包含丰富的场景细节信息, 但目标被背景所掩盖。从这两组图像可以看出, 红外与低照度图像所包含的信息具有一定的互补性, 将两者融合既有利于对目标的识别, 也有利于提高目标周围环境的辨识度。为了有效利用红外图像的目标信息及低照度图像的场景细节信息, 需要从红外与低照度图像的特性上进行深入研究。红外与低照度图像的三维分布图如图 2所示。

图1

图1   红外与低照度图像

Fig.1   Infrared and low illumination images


图2

图2   红外与低照度图像三维分布图

Fig.2   Three-dimensional distribution diagram of infrared and low illumination images


图 2(a)可以看出:

(1) 噪声(图中较小波动部分)对与环境温差较小的目标(较高凸起部分)影响较大;

(2) 像素值集中在50~250之间, 说明相对于低照度图像, 红外图像亮度较高, 因此若对红外图像进行去噪、平滑处理,可以有效提升融合图像的亮度与清晰度。

图 2(b)可以看出:

(1) 图中较高凸起对应图像中路灯、车灯等被灯光照亮的部分;

(2) 像素多集中在0~50的范围, 说明低照度图像亮度差、清晰度不佳, 相比于红外图像而言无法区分目标与背景;

(3) 图中的较小波动说明低照度图像也受到了噪声的影响, 由于低照度图像中目标、背景、噪声反映在三维分布图中没有明显的区分, 因此在对低照度图像去噪的同时还需保留和增强图像中的边缘细节。

从直方图可以直观地看出图像对比度的大小, 图 3分别给出场景A红外图像和低照度图像的直方图。

图3

图3   红外与低照度图像直方图

Fig.3   Infrared and low illumination image histogram


图 3可以看出, 红外图像的灰度值范围相较于低照度图像灰度值范围更大。此外, 红外图像会出现表示目标和背景的两个峰值, 而低照度图像往往只存在一个较为明显的峰值。在图像融合中, 需要红外图像来反映目标, 低照度图像反映场景细节, 因此, 需要提高低照度图像的动态范围, 增加对比度。

2 基于图像特征的红外图像与低照度图像融合算法

2.1 融合算法原理

本文首先通过红外与低照度图像的三维分布图、直方图对比分析图像表现出的特征信息, 根据其特征信息对图像进行处理。为了凸显红外图像目标信息、提高红外图像清晰度, 消除噪声、虚影等干扰成分, 需要采用各向异性导向滤波对其进行去噪、平滑处理。为了增强低照度图像场景细节信息, 消除噪声, 采用改进的广义全变分去噪算法结合巴特沃斯高通滤波对其进行去噪、增强处理。在此基础上, 采用NSST对红外图像与低照度图像进行分解, 分别得到低频子带图像和高频子带图像。在融合规则下, 为了保留低频子带图像中的高频成分, 采用改进的拉普拉斯加权算法结合图像区域能量来融合低频系数。为了保留高频子带中的细节分量, 采用改进的空间频率作为PCNN神经元的外部激励融合高频系数, 算法原理图如图 4所示。

图4

图4   基于图像特征的红外图像与低照度图像融合算法原理图

Fig.4   Principle schematic diagram of infrared image and low illumination image fusion algorithm based on image features


2.2 图像预处理

2.2.1 红外图像预处理

受环境、红外传感器自身缺陷以及信号处理方式的影响, 红外图像中存在多种噪声。目前, 维纳滤波、自适应中值滤波、高斯滤波、均值滤波等方法常被用于图像去噪, 但以上方法大多假设图像中的噪声为高斯噪声, 对红外图像中实际噪声的处理效果并不理想。文献[17]应用各向异性导向滤波方法用于红外图像与可见光图像的融合过程, 但由于其只针对权重图进行去噪处理, 仍有部分噪声对融合图像产生影响。为了给更多红外图像中的目标信息去除干扰, 本文对源图像应用各向异性导向滤波进行去噪、平滑处理。

给定一幅含有噪声的图像I(x, y), 应用各向异性导向滤波对图像的处理过程为

$\begin{gathered}I_{t+1}(x, y)=I_t(x, y)+\lambda\left(\mathrm{cN}_{x, y} \nabla_N\left(I_t(x, y)\right)+\right. \\\left.\mathrm{cS}_{x, y} \nabla_S\left(I_t(x, y)\right)+\mathrm{cE}_{x, y} \nabla_E\left(I_t(x, y)\right)+\mathrm{cW}_{x, y} \nabla_W\left(I_t(x, y)\right)\right)\end{gathered}$

4个散度在4个方向上对当前像素求偏导为

$\left\{\begin{array}{l}\nabla_N(I(x, y))=I(x, y-1)-I(x, y) \\\nabla_S(I(x, y))=I(x, y+1)-I(x, y) \\\nabla_E(I(x, y))=I(x-1, y)-I(x, y) \\\nabla_W(I(x, y))=I(x+1, y)-I(x, y)\end{array}\right.$

4个方向上的导热系数为

$\left\{\begin{array}{l}\mathrm{cN}_{x, y}=\exp \left(-\frac{\left\|\nabla_N(I)\right\|^2}{k^2}\right) \\\mathrm{cS}_{x, y}=\exp \left(-\frac{\left\|\nabla_S(I)\right\|^2}{k^2}\right)\end{array}\right.$

$\left\{\begin{array}{l}\mathrm{cS}_{x, y}=\exp \left(-\frac{\left\|\nabla_S(I)\right\|^2}{k^2}\right) \\\mathrm{cE}_{x, y}=\exp \left(-\frac{\left\|\nabla_E(I)\right\|^2}{k^2}\right)\end{array}\right.$

式中:▽N(I(x, y))、▽S(I(x, y))、▽E(I(x, y))、▽W(I(x, y))分别表示4个散度在4个方向上对当前像素(x, y)求偏导;cNx, y、cSx, y、cEx, y、cWx, y分别表示4个方向上的导热系数;t为迭代次数; k表示导热系数; λ为控制平滑程度, 通常取接近0的较小整数。

图 5是利用不同的去噪方法对红外图像进行去噪后的效果图。从图 5中可以看出, 维纳滤波、自适应滤波、高斯滤波、均值滤波处理后的图像仍然会受到噪声的影响, 并且图像中存在不同程度的模糊; 应用各向异性导向滤波处理后的红外图像, 目标被有效地从背景中凸显出来, 场景中的细节, 如房屋的边缘、路灯、公路两边的护栏等,均清晰可见, 背景噪声实现有效去除。

图5

图5   各种去噪方法效果比较

Fig.5   Effect comparison of various denoising methods


2.2.2 低照度图像预处理

通过前文对低照度图像的三维分布图、直方图分析可知, 低照度图像存在对比度低、噪声强等问题。为了得到更好的融合结果, 需要对低照度图像进行去噪、增强处理。目前自适应直方图均衡化、灰度变换、基于Retinex的图像增强算法等方法常被用于图像增强处理, 这些方法在白天拍摄的图像处理上具有较好的效果, 但在应用于夜晚拍摄的图像时处理效果不佳。文献[18]提出广义全变分去噪算法, 该算法既可保留图像低频信息, 又可增强图像高频信息, 但其对图像边缘细节的增强效果不佳。因此, 提出改进广义全变分去噪算法结合巴特沃斯高通滤波, 进一步增强图像的边缘细节信息。

假设g(x, y)为无噪声图像, z(x, y)为含噪声图像, μ(x, y)为零均值, 随机噪声信号方差为δ2, 则有

$z(x, y)=g(x, y)+\mu(x, y)$

利用广义全变分去噪模型可以将图像去噪看作最小化问题:

$\begin{aligned}& \min _g J_P(g)=\frac{1}{p} \int_{\Omega}|\nabla g|^p \mathrm{~d} x \mathrm{~d} y+ \\& \left(\frac{\lambda}{2}\right) \int_{\Omega}|g-z|^2 \mathrm{~d} x \mathrm{~d} y, 1<p<2\end{aligned}$

式中: $ |\nabla g|=\sqrt{g_x^2+g_y^2}$;Ω∈Rn为图像定义域;λ/2表示正则化参数;p为表示扩散强弱的参数。

其导出的欧拉—拉格朗日方程为

$-\nabla \cdot\left(|\nabla g|^{p-2} \nabla g\right)+\lambda(g-z)=0$

改进的巴特沃斯高通滤波的传递函数为

$H(u, v)=\left(R_h-R_l\right)\left\{\frac{1}{\left[1+\frac{D_0}{C D(u, v)}\right]}\right\}+R_l$

式中: D0表示截止频率; RhRl分别表示高频增益与低频增益, 且Rh>1、Rl<1;C为常数;D(u, v)是从点(u, v)到频率平面原点的距离,D(u, v)=(u2+v2)1/2

f1(x, y)为经广义全变分算法去噪后的图像, f2(x, y)为经改进的巴特沃斯高通滤波器去噪后的图像, f(x, y)为两种方法结合去噪后的图像。3种图像的关系如下:

$f(x, y)=k f_1(x, y)+f_2(x, y)$

式中: k为比例系数, 且k>1。

经过去噪后的低照度图像再由巴特沃斯高通滤波器提取其高频分量, 其传递函数为

$H(u, v)=\frac{1}{1+\left[D_1 / D(u, v)\right]^{2 n}}$

式中: D1为截止频率; n为阶数。

图 6为低照度图像增强过程可视化图, 从图 6(b)可以看出噪声被有效的去除, 但去噪后图像中的场景细节信息不够清晰, 如图像中红色框中的汽车与车道线较为模糊, 叠加高频信息后, 图 6(d)可以明显的看到汽车, 车道线等场景细节。

图6

图6   图像增强过程可视化图

Fig.6   Visualization diagram of image enhancement process


2.3 红外图像与低照度图像融合

2.3.1 NSST方法

NSST方法是由Easley等[19]提出的一种结合几何与多尺度分析的方法, 其变换过程主要分为两步: 多尺度分解与方向局部化。多尺度分解由非下采样金字塔(non-subsampled pyramid, NSP)实现, 保证平移不变性, 从而抑制伪吉布斯现象; 方向局部化由剪切波滤波器(shearlet filter, SF)实现。

源图像首先经NSP分解为1个低频子带图像和k个大小相同但尺度不同的高频子带图像。高频子带图像再经SF进行l级多方向分解, 形成2l个高频方向子带, 其过程如图 7所示。

图7

图7   NSST分解过程图

Fig.7   NSST decomposition process diagram


2.3.2 PCNN方法

PCNN方法由Eckhorn等[20]提出, 其同时具备脉冲同步性及全局耦合性, 因此被广泛用于图像融合。图 8为PCNN神经元的基本模型。

图8

图8   PCNN神经元基本模型

Fig.8   Basic model of PCNN neuron


PCNN的每一个神经元由三部分组成: 接受域、调制部分、脉冲产生部分。

接受域负责接收外部输入, 然后经由L通道和F通道输出信号。调制部分由L通道输出信号Ljk叠加一个正偏移量后与F通道输出信号Fjk相乘调制。脉冲产生部分由阈值比较器和脉冲产生器组成, 当阈值θjk超过阈值Ujk时, 脉冲产生器将停止发送脉冲; 反之, 则神经元点火, 输出脉冲。

脉冲神经网络的工作过程为: 如果神经元有脉冲输出, 动态门限会突然增大, 当增大到不能产生脉冲输出时, 动态门限会呈指数衰减。当动态门限衰减到小于内部活动项时, 脉冲又再次产生, 周而复始。脉冲的输入输出状态影响神经元的激发状态, 神经元之间通过mw进行信息互连。脉冲神经网络运行时, 神经元之间按照如下计算过程循环计算。

(1) 通过两个通道接收的输入信号、上一时刻的点火矩阵、连接系数等计算Fij(n)及Lij(n):

$F_{i j}(n)=\exp \left(-a_F\right) F_{i j}(n-1)+V_F \sum m_{i j k l} Y_{k l}(n-1)+S_{i j}$

$L_{i j}(n)=\exp \left(-a_L\right) L_{i j}(n-1)+V_L \sum w_{i j k l} Y_{k l}(n-1)$

(2) 两个通道的结果被送到调制部分, 加权相乘调制得到状态信号Uij(n):

$U_{i j}(n)=F_{i j}(n)\left(1+\beta L_{i j}(n)\right)$

(3) 在脉冲产生部分,将Uij(n)与动态阈值θij(n)进行比较。当Uij(n)大于θij(n)时,脉冲产生器打开,神经元点火输出脉冲;当Uij(n)小于θij(n)时,脉冲产生器关闭。输出脉冲为

$Y_{i j}(n)=\left\{\begin{array}{l}1, U_{i j}(n)>\theta_{i j}(n) \\0, \text { 其他 }\end{array}\right.$

(4) 神经元点火时, 阈值迅速升高, 然后衰减至再次点火, θij(n)为

$\theta_{i j}(n)=\exp \left(-a_\theta\right) \theta_{i j}(n-1)+V_\theta Y_{i j}(n-1)$

式中:i, j, k, l为下标号;Sij表示外部刺激;mijklwijkl表示链接权矩阵;αFαLαθ表示衰减系数;VFVLVθ表示幅度常数;β表示链接强度;n表示迭代次数。

2.3.3 融合算法

(1) 低频融合规则

低频系数的融合往往采用取平均的融合规则[21], 但这样会导致融合图像中高频能量的损失[22]。为了保留低频子带图像中的高频信息, 采用改进的拉普拉斯加权算法结合图像区域能量来融合低频系数。

定义八邻域改进拉普拉斯加权和(weighted sum of eight-neighbor modified Laplacian, WSEML), 结合区域能量E来选择低频系数, 其公式如下:

$\begin{gathered}E_P(i, j)=\sum\limits_{m=-r}^r \sum\limits_{n=-r}^r w(m+r+1, n+r+1) \cdot \\\operatorname{DL}_P(i+m, j+n)^2\end{gathered}$

$\begin{gathered}\operatorname{WSEML}_p(i, j)=\sum\limits_{m=-r }^r \sum\limits_{n=-r}^r w(m+r+1, n+r+1) \cdot\\\mathrm{EML}_p(i+m, j+n)\end{gathered}$

$\begin{gathered}\mathrm{EML}_p(i, j)=\left|2 \mathrm{DL}_p(i, j)-\mathrm{DL}_p(i-1, j)-\mathrm{DL}_p(i+1, j)\right|+ \\\left|2 \mathrm{DL}_p(i, j)-\mathrm{DL}_p(i, j-1)-\mathrm{DL}_p(i, j+1)\right|+ \\\frac{1}{\sqrt{2}}\left|2 \mathrm{DL}_p(i, j)-\mathrm{DL}_p(i-1, j-1)-\mathrm{DL}_p(i+1, j+1)\right|+ \\\frac{1}{\sqrt{2}}\left|2 \mathrm{DL}_p(i, j)-\mathrm{DL}_p(i-1, j+1)-\mathrm{DL}_p(i+1, j-1)\right|\end{gathered}$

式中: p∈{V, L}, VL分别为红外图像与低照度图像, 其区域大小为(2r+1)·(2r+1);DLp(i, j)为低频系数; w(m+r+1, n+r+1)为各点权重;EMLp(i, j)表示改进的拉普拉斯加权算法。

(2) 高频融合规则

高频子带会带有图像中重要的轮廓边缘信息, 为了更好地保留高频子带中的细节分量, 如边缘、直线、边界信息等, 应用改进的空间频率作为PCNN神经元的外部激励融合高频系数。传统的空间频率只能计算一个方向的梯度能量, 为了获得图像多个方向的梯度能量, 特采用改进空间频率作为PCNN神经元的外部激励, 对于大小为M×N的图像, 改进的空间频率MSF为

$\mathrm{MSF}=\sqrt{\mathrm{RF}^2+\mathrm{CF}^2+\mathrm{MDF}^2+\mathrm{SDF}^2}$

$\mathrm{RF}=\sqrt{\frac{1}{M \times(N-1)} \sum\limits_{m=1}^M \sum\limits_{n=2}^N\left[f_{m, n}-f_{m, n-1}\right]^2}$

$\mathrm{CF}=\sqrt{\frac{1}{(M-1) \times N} \sum\limits_{m=2}^M \sum\limits_{n=1}^N\left[f_{m, n}-f_{m-1, n}\right]^2}$

$\mathrm{MDF}=\sqrt{\frac{1}{(M-1) \times(N-1)} \sum\limits_{m=2}^M \sum\limits_{n=2}^N\left[f_{m, n}-f_{m-1, n-1}\right]^2}$

$\mathrm{SDF}=\sqrt{\frac{1}{(M-1) \times(N-1)} \sum\limits_{m=2}^M \sum\limits_{n=2}^N\left[f_{m-1, n}-f_{m, n-1}\right]^2}$

式中: RF、CF分别表示行频率和列频率; MDF、SDF分别表示主对角频率和副对角频率。

(3) 融合流程

针对红外图像与低照度图像特点, 基于图像特征、NSST、区域能量、PCNN等进行融合规则的制定, 可以有效保留融合图像边缘轮廓等细节信息, 提高融合图像清晰度。

具体步骤如下。

步骤1  用各向异性导向滤波对红外图像进行滤波。

步骤2   利用改进的广义全变分去噪算法结合巴特沃斯高通滤波对低照度图像进行去噪和细节增强。

步骤3   对预处理后的红外图像和低照度图像分别进行NSST分解, 获得高频子带图像和低频子带图像。

步骤4   对于低频子带图像, 遍历每个像素点, 选取区域能量E和WSEML乘积的较大值作为低频融合系数。

步骤5   利用PCNN准则选择高频系数, 其过程如下。

① 令Fij(0)=0、Lij(0)=0、Uij(0)=0、θij(0)=0、Yij(0)=0。

② 利用MSF值激励PCNN。

③ 通过式(10)~式(14)计算Lij(n)、Uij(n)、θij(n)。

④ 重复以上步骤, 直至n=N时停止迭代, 选取较大点火次数的子带系数作为高频融合系数。

步骤6   对处理后的低频分量及高频分量进行NSST逆变换,得到最终融合图像。

3 实验结果及分析

为了测试所提算法的有效性,从由加拿大光学研究所发布的公开数据集(简称为INO)[23]和由荷兰组织应用科学研究院发布的公开数据集(简称为TNO)[24]中选取配准的红外图像与低照度图像进行实验。实验环境为: Matlab R2018b, 64位Windows10操作系统, 8 GB内存, Intel(R) Core(TM) i7-7500U CPU @2.70 Hz 2.9 GHz处理器。实验参数首先分别根据文献[20]、文献[21]、文献[25]、文献[26]初步确定, 然后根据红外图像与低照度图像特点及应用算法原理对参数进行调整, 并进行大量实验。最后选择的最优参数组为: 各向异性导向滤波算法中t=20、k=5、λ=0.15;改进广义全变分去噪算法中λ=0.5、p=0.5、D0=18、Rh=1.7、Rl=0.8、C=0.6、K=1.2、D1=0.1、n=15;多尺度分解选取“maxflat”滤波器, 分解层数为4, 方向数为{3, 3, 4, 4};PCNN模型中N=200, aL=0.069 31, aθ=0.2, VL=1.0, Vθ=20, β=5。采用3种算法与本文算法进行比较, 分别为NSCT_PCNN[25]算法、PCNN[26]算法、NSST[27]算法。

3.1 主观视觉评估

本节给出了各种方法对不同场景下的5幅图像(夜间复杂马路、凌晨走廊、夜间繁华街道、凌晨郊区、凌晨山区)的融合结果。夜间复杂马路图像见图 9

图9

图9   夜间复杂马路图像

Fig.9   Complex road images at night


图 9可以看出, 对于夜间复杂马路图像, 3种方法的融合图像均受到了噪声的影响, NSCT_PCNN算法的融合图像对比度较低, 场景细节模糊不清; PCNN算法的融合图像虽然场景细节表现较好, 但对比度过高, 导致图像中颜色深的区域变黑, 红外目标偏亮; NSST算法的融合图像较为灰暗, 场景细节信息缺失; 本文算法的融合图像在亮度和细节提取上有很大提升, 可以清晰地看出汽车、行人、车道线等细节信息, 视觉效果提升明显。凌晨走廊图像见图 10

图10

图10   凌晨走廊图像

Fig.10   Early morning corridor images


图 10可以看出, 对于凌晨走廊图像, 3种方法的融合图像均存在不同程度的失真, NSCT_PCNN算法的融合图像对于低照度图像的场景细节信息完全缺失, 只有红外目标信息; PCNN算法的融合图像存在大量黑色斑块、场景细节缺失、红外目标过亮; NSST算法的融合图像对比度和清晰度较差、边缘轮廓模糊、存在明显的伪影现象; 本文算法的融合图像对比度适中、清晰度高、具有丰富的场景细节信息, 例如走廊的地砖纹理、花草的细节和烟雾信息。这些场景信息轮廓清晰且亮度适中, 更符合人眼的视觉感受。夜间繁华街道图像见图 11

图11

图11   夜间繁华街道图像

Fig.11   Busy street images at night


图 11可以看出, 对于夜间繁华街道图像, NSCT_PCNN算法的融合图像存在明显的噪声, 场景细节信息缺失; PCNN算法的融合图像存在大量黑色斑块, 图像严重失真; NSST算法的融合图像边缘区域有明显光晕伪影, 图像清晰度和对比度较低; 本文算法的融合图像很好地保留了低照度图像的场景细节, 如图像中人行道上的柱子、店铺门口的细节在融合图像中均能表现出来, 目标亮度适中, 符合人眼的视觉感受。凌晨郊区图像见图 12

图12

图12   凌晨郊区图像

Fig.12   Early morning suburban images


图 12可以看出, 对于凌晨郊区图像, NSCT_PCNN算法的融合图像存在大量的黑色斑块, 整体的视觉效果较灰暗; PCNN算法的融合图像既缺少红外图像的场景信息(天空中的云彩)也缺少低照度图像的场景信息(汽车车窗轮廓); NSST算法的融合图像边缘区域有明显光晕伪影; 本文算法的融合图像既保留了低照度图像的场景细节,也保留了红外图像的场景细节, 天空中的云彩、车窗轮廓等场景信息均清晰可见。凌晨山区图像见图 13

图13

图13   凌晨山区图像

Fig.13   Early morning mountain images


图 13可以看出, 对于凌晨山区图像, NSCT_PCNN算法的融合图像效果较好, 不足的是亮度和清晰度表现不佳; PCNN算法的融合图像场景细节较为模糊, 红外目标过亮; NSST算法的融合图像场景细节信息严重缺失, 存在光晕伪影; 本文算法的融合图像亮度和清晰度均表现较好, 场景的细节信息清晰可见。

3.2 客观评价结果

除了主观视觉评估, 本文还使用了客观评价标准, 选用信息熵IE[28]、标准差SD[29]、平均梯度AG[30]、边缘保留因子QAB/F[31]作为客观评价标准。4种算法对5种不同场景下的红外图像和低照度图像进行融合的客观评价指标如表 1所示。

表1   5组不同场景下的融合图像客观评价指标

Table 1  Objective evaluation indexes of fused images in five different scenes

源图像指标NSCT_PCNNPCNNNSST本文算法
第1组IE6.561 86.668 06.569 17.791 8
SD45.329 145.423 445.356 860.576 2
AG7.453 27.612 87.642 08.921 0
QAB/F0.504 00.564 10.521 00.582 8
第2组IE6.803 25.521 96.674 27.313 0
SD38.751 738.721 038.854 274.012 5
AG5.781 65.359 65.742 98.672 0
QAB/F0.340 20.561 60.551 30.584 2
第3组IE6.541 26.211 26.421 37.294 6
SD26.324 024.104 226.214 050.321 1
AG4.401 53.014 24.025 66.121 0
QAB/F0.391 80.401 20.354 20.471 3
第4组IE6.701 27.399 57.066 87.651 6
SD23.191 226.146 225.486 930.151 6
AG2.295 24.352 83.961 65.659 6
QAB/F0.382 40.401 50.375 20.542 1
第5组IE6.954 86.707 86.575 37.213 4
SD31.492 627.451 225.617 145.142 3
AG4.809 84.754 34.017 65.013 6
QAB/F0.409 60.391 20.301 90.553 8

新窗口打开| 下载CSV


表 1可以看出, 在第1组图像中本文算法取得的信息熵、标准差、平均梯度、边缘保留因子, 较次优结果分别提高了16.8%、33.4%、16.7%、3.31%;在第2组图像中, 本文算法取得的信息熵、标准差、平均梯度、边缘保留因子, 较次优结果分别提高了7.49%、90.49%、49.99%、4.02%;在第3组图像中, 本文算法取得的信息熵、标准差、平均梯度、边缘保留因子, 较次优结果分别提高了11.52%、91.16%、39.07%、17.47%;在第4组图像中, 本文算法取得的信息熵、标准差、平均梯度、边缘保留因子, 较次优结果分别提高了3.41%、15.31%、30.02%、35.02%;在第5组图像中, 本文算法取得的信息熵、标准差、平均梯度、边缘保留因子, 较次优结果分别提高了3.72%、43.34%、4.24%、35.21%。通过客观评价指标的评测可知, 本文算法在改善噪声的同时, 能够保留红外图像的热目标信息, 以及增强低照度图像的纹理细节信息。

4 结论

针对单独使用红外图像或低照度图像难以对图像中的目标和背景信息进行识别的问题, 提出了基于图像特征的红外图像与低照度图像融合算法。首先, 根据红外图像与低照度图像的特征有针对性地分别进行图像处理, 降低了噪声对红外图像目标信息的影响, 增强了低照度图像的场景细节信息。其次, 利用NSST对红外图像与低照度图像进行分解, 针对高频子带图像特征与低频子带图像特征构建不同的融合规则。最后, 经NSST逆变换获取融合图像。在INO与TNO数据集上的仿真实验表明, 所提算法能够有效综合红外图像的目标信息和低照度图像的场景细节信息, 融合图像清晰自然、对比度适中、符合人眼的视觉感知效果, 可以很好地被应用于军事监控、目标追踪、自动驾驶等领域。

参考文献

邢雅琼, 王晓丹, 毕凯, .

基于NSCT和ICA的红外和可见光图像融合方法

[J]. 系统工程与电子技术, 2013, 35 (11): 2251- 2256.

URL     [本文引用: 1]

XING Y Q , WANG X D , BI K , et al.

Infrared and visible image fusion method based on NSCT and ICA

[J]. Systems Engineering and Electronics, 2013, 35 (11): 2251- 2256.

URL     [本文引用: 1]

江泽涛, 覃露露, 秦嘉奇, .

一种基于MDARNet的低照度图像增强方法

[J]. 软件学报, 2021, 32 (12): 3977- 3991.

DOI:10.13328/j.cnki.jos.006112      [本文引用: 1]

JIANG Z T , QIN L L , QIN J Q , et al.

Low-light image enhancement method based on MDARNet

[J]. Journal of Software, 2021, 32 (12): 3977- 3991.

DOI:10.13328/j.cnki.jos.006112      [本文引用: 1]

周晓玲, 江泽涛.

结合脉冲耦合神经网络与引导滤波的红外与可见光图像融合

[J]. 光学学报, 2019, 39 (11): 1110003.

URL     [本文引用: 1]

ZHOU X L , JIANG Z T .

Infrared and visible image fusion combining pulse-coupled neural network and guided filtering

[J]. Acta Optical Sinica, 2019, 39 (11): 1110003.

URL     [本文引用: 1]

LIU K , GUO L , LI H H , et al.

Fusion of infrared and visible light images based on region segmentation

[J]. Chinese Journal of Aeronautics, 2009, 22 (1): 75- 80.

DOI:10.1016/S1000-9361(08)60071-0      [本文引用: 1]

GAI D , SHEN X J , CHEN H P , et al.

Medical image fusion using the PCNN based on IQPSO in NSST domain

[J]. IET Image Processing, 2020, 14 (9): 1870- 1880.

DOI:10.1049/iet-ipr.2020.0040      [本文引用: 1]

CHEN J , LI X J , LUO L B , et al.

Infrared and visible image fusion based on target-enhanced multiscale transform decomposition

[J]. Information Sciences, 2020, 508, 64- 78.

DOI:10.1016/j.ins.2019.08.066      [本文引用: 1]

BHAT S , KOUNDAL D .

Multi-focus image fusion using neutrosophic based wavelet transform

[J]. Applied Soft Computing, 2021, 106, 107307.

DOI:10.1016/j.asoc.2021.107307      [本文引用: 1]

GUO L Q , CAO X , LIU L .

Dual-tree biquaternion wavelet transform and its application to color image fusion

[J]. Signal Processing, 2020, 171, 107513.

DOI:10.1016/j.sigpro.2020.107513     

AGHAMALEKI J A , GHORBANI A .

Image fusion using dual tree discrete wavelet transform and weights optimization

[J]. The Visual Computer, 2023, 39, 1181- 1191.

DOI:10.1007/s00371-021-02396-9      [本文引用: 1]

ZHAO C H , GUO Y T , WANG Y L .

A fast fusion scheme for infrared and visible light images in NSCT domain

[J]. Infrared Physics and Technology, 2015, 72, 266- 275.

DOI:10.1016/j.infrared.2015.07.026      [本文引用: 1]

YUE J J , LI M Z , CHEN J , et al.

Multi-focus infrared image fusion based on pulse coupled neural networks in a nonsubsampled contourlet transform domain

[J]. Infrared Technology, 2017, 39 (9): 798- 806.

[本文引用: 1]

JIAO J , WU L D .

Pansharpening with a gradient domain GIF based on NSST

[J]. Electronics, 2019, 8 (2): 229.

DOI:10.3390/electronics8020229      [本文引用: 1]

LI L L , SI Y J , WANG L L , et al.

A novel approach for multi-focus image fusion based on SF-PAPCNN and ISML in NSST domain

[J]. Multimedia Tools and Applications, 2020, 79 (6): 24303- 24328.

[本文引用: 1]

WEI T , LIU Y , CHENG J , et al.

A phase congruency-based green fluorescent protein and phase contrast image fusion method in nonsubsampled shearlet transform domain

[J]. Microscopy Research and Technique, 2020, 83 (10): 1225- 1234.

WANG J , YANG K , REN P , et al.

Multi-source image fusion algorithm based on fast weighted guided filter

[J]. Journal of Systems Engineering and Electronics, 2019, 30 (5): 831- 840.

DOI:10.21629/JSEE.2019.05.02      [本文引用: 1]

GANASALA P , PRASAD A D .

Contrast enhanced multi sensor image fusion based on guided image filter and NSST

[J]. IEEE Trans.on Sensors Journal, 2020, 20 (2): 939- 946.

DOI:10.1109/JSEN.2019.2944249      [本文引用: 1]

ZHANG S , HUANG F Y , ZHONG H , et al.

Multi-modal image fusion via sparse representation and multi-scale anisotropic guided measure

[J]. IEEE Access, 2020, (8): 35638- 35649.

[本文引用: 1]

BIRGIT K , LORENZ D A , LENA V .

Denoising of image gradients and total generalized variation denoising

[J]. Journal of Mathematical Imaging & Vision, 2019, 61, 21- 39.

[本文引用: 1]

EASLEY G , LABATE D , LIM W Q .

Sparse directional image representations using the discrete shearlet transform

[J]. Applied Computational Harmonic Analysis, 2008, 25 (1): 25- 46.

DOI:10.1016/j.acha.2007.09.003      [本文引用: 1]

ECKHORN R , REIBOECK H J , ARNDT M , et al.

Feature linking via synchronization among distributed assemblies: simulation of results from cat cortex

[J]. Neural Computation, 1990, 2 (3): 293- 307.

DOI:10.1162/neco.1990.2.3.293      [本文引用: 2]

YIN M , LIU X N , LIU Y , et al.

Medical image fusion with parameter adaptive pulse coupled neural network in nonsubsampled shearlet transform domain

[J]. IEEE Trans.on Instrumentation and Measurement, 2019, 68 (1): 49- 64.

DOI:10.1109/TIM.2018.2838778      [本文引用: 2]

LI X X , GUO X P , HAN P F , et al.

Laplacian re-decomposition for multimodal medical image fusion

[J]. IEEE Trans.on Instrumentation and Measurement, 2020, 69 (9): 6880- 6890.

DOI:10.1109/TIM.2020.2975405      [本文引用: 1]

LI Y Q , ZHAO H T , HU Z W , et al.

IVFuseNet: fusion of infrared and visible light images for depth prediction

[J]. Information Fusion, 2019, 58, 1- 12.

[本文引用: 1]

TOET Alexander. TNO image fusion dataset[EB/OL]. [2021-07-30]. https://figshare.com/articles/TNO-Image-Fusion-Dataset/1008029.

[本文引用: 1]

WU C , CHEN L .

Infrared and visible image fusion method of dual NSCT and PCNN

[J]. PLoS One, 2020, 15 (9): e0239535.

DOI:10.1371/journal.pone.0239535      [本文引用: 2]

WANG L , LUO W , CHEN J H , et al.

Fusion of infrared and visible images based on adaptive PCNN and information extraction

[J]. Computer Engineering and Applications, 2018, 54 (4): 192- 198.

[本文引用: 2]

XING X X, LIU C, LUO C, et al. Infrared and visible image fusion based on nonlinear enhancement and NSST decomposition[EB/OL]. [2022-03-25]. https//www.research.square.com/article/rs-15346v1.

[本文引用: 1]

DU Q L , XU H , MA Y , et al.

Fusing infrared and visible images of different resolutions via total variation model

[J]. Sensors, 2018, 18 (11): 3827.

DOI:10.3390/s18113827      [本文引用: 1]

MA J Y , CHEN C , LI C , et al.

Infrared and visible image fusion via gradient transfer and total variation minimization

[J]. Information Fusion, 2016, 31, 100- 109.

DOI:10.1016/j.inffus.2016.02.001      [本文引用: 1]

JIN X , JIANG Q , YAO S W , et al.

A survey of infrared and visual image fusion methods

[J]. Infrared Physics and Technology, 2017, 85, 478- 501.

DOI:10.1016/j.infrared.2017.07.010      [本文引用: 1]

KONG W W , LEI Y , REN M M .

Fusion method for infrared and visible images based on improved quantum theory model

[J]. Neuro Computing, 2016, 212, 12- 21.

[本文引用: 1]

/