Hyperspectral image band selection method for camouflage target recognition
-
摘要:
随着伪装技术的不断进步,伪装目标与背景的光谱相似度越来越高,给识别任务带来了挑战。现有的波段选择方法大多关注波段的信息量或图像整体可分性,难以选择出能够有效区分相似光谱的特征波段组合。为此,提出了一种面向伪装目标识别的高光谱图像波段选择方法,通过构建光谱差异度指数模型,定量描述各波段中伪装目标与相似背景的光谱差异度,进而指导特征波段选择。模型首先引入光谱梯度角来挖掘光谱的局部形态特征;然后通过Fréchet距离度量光谱之间的幅值差异,并对其进行归一化以消除尺度变化的影响;最后结合皮尔逊相关系数强化光谱差异性和波段独立性。在伪装车辆数据集以及San Diego停机场公共数据集上的实验结果表明,该方法在伪装目标识别任务中的效果优于对比方法。
Abstract:With the continuous development of camouflage technology, the spectral similarity between the camouflage target and the background is getting higher and higher, which brings challenges to the recognition task. Most of the existing band selection methods focus on the information content of the band or the overall separability of each band image, so it is difficult to select the feature band combination that can distinguish the similar spectrum effectively. Therefore, a hyperspectral image band selection method for camouflage target recognition was proposed. The spectral difference index model was constructed to quantitatively describe the spectral difference between camouflage target and similar background in each band, and then guided the selection of feature bands. Firstly, the spectral gradient angle was introduced to explore the local morphological features of the spectrum. Then, the amplitude differences between spectra were measured by Fréchet distance and normalized to eliminate the effect of scale changes. Finally, Pearson correlation coefficient was used to strengthen spectral difference and band independence. The experimental results on the camouflage vehicle data set and the San Diego airport public data set show that the proposed method is better than the comparison method in the camouflage target recognition task.
-
引言
X射线计算机断层扫描(computed tomography, CT)是医学领域普遍采用的成像方法之一,有助于疾病的早期发现和治疗方案的制定。先前的多项研究已经表明,在CT扫描过程中辐射暴露对患者的身体有害,可能会增加基因突变的风险,从而导致患癌症或其他疾病的风险[1]。因此,在保证临床诊断准确度的同时,有必要最大程度地减少CT扫描过程中的辐射剂量[2]。减少辐射暴露会增加重建图像中的噪声水平和伪影,这些因素会影响重建图像的质量、医生诊断的准确性[3]。为了解决上述问题,研究人员探索了许多算法,在提高低剂量CT(low dose CT, LDCT)图像质量的同时最大限度地减少X射线剂量。
目前,LDCT图像降噪方法主要分为3种[4]:投影域处理、迭代重建和图像后处理。投影域处理方法[5]是对原始投影数据先进行去噪处理然后使用重建算法得到去噪后的CT图像。常用的处理方法包括双边滤波算法[6]、结构自适应滤波[7]和非线性各向异性扩散滤波[8]。迭代重建算法将先验信息作为抑制噪声及伪影和保持边缘信息的惩罚项集成到目标函数中,通过反复迭代的过程来优化统一的目标函数。例如,稀疏表示先验[9]、总变异[10]和字典学习先验[11]。这些算法在一定程度上都能有效去除噪声,但它们都存在问题——投影数据获取困难和重建时间长。相较于其他两种算法,图像后处理算法针对已经重建的CT图像进行有效处理。传统的图像后处理算法包括使用自适应非局部均值滤波[12]进行LDCT去噪,基于分块匹配和自适应3D滤波算法以提高LDCT图像的成像质量等。尽管传统的图像后处理算法在LDCT图像的恢复中表现良好,但它们会使图像过于平滑,并可能丢失关键的局部信息,难以在保持细节及纹理信息和抑制噪声之间达到最佳平衡。
近年来,基于深度学习的网络模型在处理低剂量CT图像去噪方面表现出了极大的优势。其中,基于卷积神经网络的图像去噪方法被证明具有很好的效果,如CHEN H等[13]将自动编码器和反卷积网络连接到REDCNN(residual encoder-decoder convolutional neural network),以补偿上采样引起的结构信息失真,可以有效恢复图像细节。虽然上述算法取得了一定的效果,但仍存在过拟合和模型训练不足的问题。为了解决这个问题,研究人员在网络结构改进方面做了大量的研究。例如,PENG Y等[14]提出对称跳跃连接和扩展卷积相结合的扩展残差网络,提高了网络的去噪性能。LI M[15]等提出自注意力三维卷积网络,改善CNN感受野,通过自监督学习来进行图像去噪。为了更好地保留边缘信息,LIANG T等[16]提出了一种基于边缘的密集耦合卷积神经网络(EDCNN),该网络通过构建密集连接模型将边缘信息融合在一起,用注意力模块提取更准确的噪声信息,实现了端到端的LDCT图像去噪。虽然上述方法对于图像恢复是有效的,但无法捕捉到不同尺度下噪声图像的层次特征。GUI X等[17]提出AAFFA(artifact-assisted feature fusion attention)网络去除LDCT噪声,结合伪影辅助特征融合与多层次注意力,有效去噪并保留细节。此外,WANG D等[18]提出了一种基于Transformer的低剂量CT去噪模型,可以有效去除边界伪影,但是它的网络运算复杂,且部分图像细节会丢失。
尽管现有的网络架构对LDCT图像的去噪性能有了显著的提升,但在进行网络训练时没有考虑到空间特征和去噪任务之间的关系,对图像上下文信息的使用不足导致图像细节丢失,且缺乏对噪声及伪影的关注,限制了降噪效果。因此,本文提出一种多尺度密集残差和全局注意力机制结合的模型,进行低剂量CT图像去噪,采用改进的多尺度密集残差块(multi scale dense residual blocks,MRDB)实现多尺度特征的有效提取,全局注意力机制在低剂量图像去噪中的应用能够充分利用图像的全局信息,实现自适应的权重调整,从而提高去噪效果并保留图像的细节和特征。
1 降噪模型
基于深度学习的LDCT图像去噪算法依赖于噪声和伪影的统计模型,相比于传统算法而言,可以有效解决图像中噪声模型的不确定性问题。假设$ X \in {{\mathrm{R}}^{M \times N}} $是一张大小为$ M{{ \times }}N $的LDCT图像,$ Y \in {{\mathrm{R}}^{M \times N}} $为对应的NDCT图像。LDCT的去噪模型表示为
$$ X = g(Y) $$ (1) 式中:$ g(\cdot) $表示LDCT图像到NDCT图像的映射,即经过一个复杂的退化过程。通过最小化目标函数减少噪声,使
$$ F(X) = \mathop {\arg \min }\limits_{f(X)} \left\| {f(X) - Y} \right\|_2^2 $$ (2) 式中$ F(X) $可以被视为$ {g^{ - 1}} $的最优近似。
2 整体网络结构
本文设计了一个LDCT去噪模型MRD-GAMNet(multi scale dense residual-global attention mechanism network),其总体网络框架如图1所示,该模型由多尺度密集残差块(MRDB)、全局注意力模块(GAM)和去噪模块(DB)构成。为了加速模型收敛,该模型直接学习LDCT图像中噪声的分布,以实现更好的去噪效果。在主特征提取网络中,我们创新性地融合了多尺度密集残差块和全局注意力模块,分为提取图像特征的编码端和专注于特征有效融合的解码端。构建编码器和解码器时,使用MRDB作为核心模块,全面捕获图像在不同尺度下的特征信息。此外,利用密集连接的方式,可以有效解决训练过程中的梯度消失问题,进而提升模型训练的性能。为了提高对跨维信息的关注,减少信息损失,在编码端的每一层加入全局注意力模块,提高对噪声和伪影的关注。最后,将原始LDCT图像与上一步输出相减以获得高质量去噪图像。
2.1 多尺度密集残差块
MRDB在密集残差块(RDB)中加入了空洞空间卷积池化金字塔(atrous spatial pyramid pooling,ASPP)模块,如图2所示。本文由4组卷积层与ReLU激活函数构成密集残差块(residual dense block),其中卷积核的大小为3×3,每组都由32个卷积核组成,可以从网络中有效地提取特征并降低网络训练的复杂度。ASPP模块是基于扩张卷积原理构建的,该模型旨在通过不增加网络参数的方式,有效扩展模型的感受野,从而有助于模型获取更广泛的图像信息。文中ASPP模块包括1×1Conv、用于调整特征图的通道数以及扩张率为6和12的3×3卷积,用于捕获不同尺度的图像特征,同时增加一个全局池化层来提取全局信息。将得到的不同尺度的特征进行合并,并通过1×1Conv进行特征融合。随后,这些融合后的特征与RDB的特征进行融合,进一步提升了特征的表达能力。
2.2 全局注意力机制
在图像的降噪过程中,像素重构的效果取决于其获取的上下文信息的丰富程度,信息越丰富,去噪效果越好。WOO S等[19]提出了通道和空间注意力相结合的卷积块注意模块(convolutional block attention module, CBAM),可以更好地捕捉到图像中的局部细节和结构信息,然而这种方法忽略了通道和空间之间的相互作用,从而失去了跨维信息。为了充分提取图像的上下文信息,以加大全局跨维度交互和重要特征的充分学习,本文引入了GAM模块(如图3所示),GAM通过集成改进的CAM和SAM,加强网络对LDCT图像噪声及伪影的关注,抑制不相关信息,以实现更好的去噪效果。给定输入特征映射$ F \in {{\mathrm{R}}^{C \times H \times W}} $,其计算过程为
$$ {F^{'}} = {M_{\mathrm{s}}} \times \left( {{M_{\mathrm{c}}} \times F} \right) $$ (3) 式中:$ {M_{\mathrm{c}}} $和$ {M_{\mathrm{s}}} $是通道注意力图和空间注意力图;×表示按元素进行乘法运算,得到新的特征映射$ {F^{'}} $。
如图4所示,首先,对于输入的特征图,通道注意力模块(CAM)不改变特征图的空间维度,使用3D排列来跨3个维度保留信息。随后,特征图被输入到多层感知器(MLP),该MLP采用压缩比为r的两层结构,旨在学习通道和空间相关性。然后将这3个维度再次在三维空间中对齐,以确保信息的完整性和一致性。最后,运用sigmoid激活函数,将输出值映射到0~1的区间内,以实现归一化,从而得到具有增强通道重要性的特征表示。其计算公式为
$$ M_{\mathrm{c}}\left(F_1\right)=\sigma\left\{M\mathrm{_{rp}}\left\{M_{\mathrm{MLP}}\left\{M\mathrm{_P}\left(F_1\right)\right\}\right\}\right\} $$ (4) 式中:$ {F_1} $为输入映射;$ {M_{\mathrm{P}}} $和$ M\mathrm{_{RP}} $为排列操作和重排操作;$ {M_{{\mathrm{MLP}}}} $为多层感知器算法;$ \sigma $为sigmoid函数。
如图5所示,在空间注意力模块(SAM)中,为了更好地保留特征映射的细节信息,本文去除了SAM中最大池化操作。同时,为了保持与通道注意力模块的一致性,采用了与其相同的压缩比r。此外,引入7×7卷积核以扩大感受野,并捕捉更丰富的空间上下文信息。最后,为了规范特征图的取值范围并提升模型的稳定性,使用sigmoid激活函数。通过SAM获取不同空间位置的特征信息,模型能更有效地捕获图像中的噪声特征。其计算公式为
$$ {M_{\mathrm{s}}}\left( {{F_2}} \right) = \sigma \left\{ {{M_{{\mathrm{conv}}}}\left\{ {{M_{{\mathrm{conv}}}}\left( {{F_2}} \right)} \right\}} \right\} $$ (5) 式中:$ {F_2} $为CAM的输入;$ {M_{{\text{conv}}}} $为7×7卷积运算;$ \sigma $为sigmoid函数。
2.3 去噪模块
在去噪任务中,网络结构的选择和函数的组合对于提高去噪效果至关重要。本文的去噪块包括1×1Conv与ReLu激活函数组合、深度可分离卷积(DWConv)、Subtract和ReLu激活函数,以实现高效且准确的去噪。1×1Conv+ReLu可以更有效地集成前一层的边缘信息,使输出特征图更加稳定,有效避免信息重复或丢失,同时有助于减少计算次数。设置DWConv的滤波器数量为1,对应于单个通道的输出,进一步优化网络的结构,减少卷积计算所需的参数数量。同时,DWConv块能够学习到原始图像与噪声之间的差异,通过Subtract操作,将原始LDCT图像与DWConv块的输出相减,将这种差异从原始图像中去除,以获得最终的去噪图像。最后,采用ReLU激活函数,旨在进一步增强模型的泛化性能。去噪模块如图6所示。
2.4 损失函数
为了克服均方误差损失方法造成的图像过于平滑且丢失细节导致模糊的问题,本文将多尺度特征损失作为目标函数,如式(6)所示:
$$ {L}_{{\mathrm{MSE}}}(F(x),F({x}'))=\frac{1}{L}{{\displaystyle \sum _{i=1}^{L}\Vert {F}_{i}(x)-{F}_{i}({x}')\Vert^{2} }} $$ (6) 式中:$ x $为重建图像;$ {x{'}} $为对应的标准剂量图像;$ {F_i}(x) $为重建图像经过第i层卷积层后提取的特征;$ {F_i}({x{'}}) $为对应的标准剂量图像经过第i层卷积层后提取的特征;L为卷积层的数量。
3 实验设计及结果分析
3.1 数据集
为了证明本文提出模型对LDCT图像的去噪能力,在本文的研究实验中使用了癌症档案馆(the cancer imaging archive, TCIA)所提供的2016年 NIH-AAPM-Mayo Clinic 低剂量CT挑战赛的数据集[20]。该数据集包含了10名匿名患者NDCT图像和相应的LDCT(四分之一剂量)图像,共
2378 对。所有图像的切片厚度均为3 mm,原始分辨率为512×512像素。在实验中,我们选择了8名患者的1 900对CT图像进行训练,以及另外2名患者的478对CT图像进行测试。3.2 实验环境与参数设置
本实验是在64位Windows10系统上进行的,该系统具有用于网络训练的Pytorch框架,所有实验均使用NVIDIA GeForce MX330GPU完成。在优化过程中我们使用自适应动量估计(Adam)对模型进行优化,并将参数设置如下:参数β1为0.9,β2为0.999。学习率最初设置为0.001,网络训练周期设置为200。
3.3 评价指标
为了全面评估图像质量,本文采用了多种评价指标,峰值信噪比(PSNR)、结构相似度(SSIM)以及散斑指数(speckle index, SI)。其中,PSNR用于量化处理后图像与标准图像间的差异,该值越大表明处理后的图像与标准图像越接近,代表图像质量越好。其表达式为
$$ Q_{{\rm{PSNR}}} = 10\lg \left(\frac{{I_{{\rm{MAX}}}^2}}{{I_{{\rm{MSE}}}}}\right) $$ (7) 式中:$ I_{{\mathrm{MAX}}} $表示图像像素值的最大可能取值,$ I_{{\mathrm{MSE}}} $表示均方误差。
SSIM是从三个方面来度量图像的视觉质量:亮度、对比度和图像结构值,范围为[0,1]。SSIM值越高,表示结构越相似。其表达式为
$$ Q_{{\rm{SSIM}}}(X,Y) = \frac{{(2{\mu _X}{\mu _Y} + {c_1})(2{\sigma _{XY}} + {c_2})}}{{(\mu _X^2 + \mu _Y^2 + {c_1})(\sigma _X^2 + \sigma _Y^2 + {c_2})}} $$ (8) 式中:$ {\mu _X} $、$ {\mu _Y} $分别表示$ X $和$ Y $的平均值;$ {\sigma _X} $、$ {\sigma _Y} $分别是$ X $和$ Y $的标准差;c1、c2是维持计算稳定的常量。
SI是衡量图像中散斑噪声水平的一个量化指标,散斑指数越小,表示图像受散斑噪声调制的程度越低,即图像质量越好。其表达式为
$$ Q_{{\mathrm{SI}}}=\frac{1}{M\times N}{\displaystyle \sum _{i=1}^{M}{\displaystyle \sum _{j=1}^{N}\frac{\sigma (i,j)}{u(i,j)}}} $$ (9) 式中:$ M \times N $表示图像的大小;$ \sigma (i,j) $表示图像中位置$ (i,j) $的测量窗口内像素灰度值的标准差;$ u(i,j) $表示在图像中位置$ (i,j) $的测量窗口内像素灰度值的平均值。
3.4 实验结果分析
为了评估所提方法的性能,本文选取传统算法BM3D、编码器-解码器卷积网络RED-CNN、第一个基于纯Transformer架构的网络CTformer这3种典型的方法进行了比较。从测试集中挑选两个具有代表性的切片,不同去噪方法对LDCT图像的去噪效果如图7所示,每幅图的下方为感兴趣区域(ROI)的放大图。
观察图7可以发现,LDCT图像分布了大量的条纹伪影和散射噪声,相比之下,NDCT图像中可以清楚地看到正常的人体组织结构。通过对整体去噪结果的综合分析,可以看到4种算法在去除LDCT图像中的伪影和噪声方面均有所成效,但各自的效果存在显著差异。具体而言,在BM3D算法的去噪图像中,不难发现仍有大量伪影残留,其去噪效果相对较差,去噪性能仍有待提升;RED-CNN的去噪图像有效地抑制了噪声,但是该算法使用MSE作为损失函数,使得去噪后的图像存在过度平滑和纹理细节缺失的问题,视觉效果显得很模糊;CTformer可以显著抑制伪影和噪声,很好地保留了细节信息,但也存在过渡平滑的问题。所提出的MRD-GAMNet去除了大范围的噪声水平,条纹伪影也是对比方法中最浅的,细节恢复的更多。总体而言,该方法结果图中的纹理和细节更接近NDCT图像,比另外3种典型的方法具有更明显的优势和更好的泛化性。
为了客观评价所提出方法在LDCT图像降噪的有效性,表1展示了4种方法对数据集中478对测试图像的去噪效果的平均PSNR、SSIM和SI值。从表中可以看出,由于BM3D处理后的图像PSNR和SSIM的指标值最低,且散斑指数最高,说明这种算法相比于深度学习的去噪方法,效果并不理想。RED-CNN是基于MSE的去噪方法,尽管获得了更好的PSNR和SSIM结果,但图7的视觉结果证实,在处理LDCT图像时,基于MSE的方法产生了过度平滑结果,导致结构信息丢失。CTformer通过无卷积token2Token扩展视觉变压器进行去噪,各个指标值都取得了显著的改善。与这3种算法相比,本文算法不仅采用多尺度特征损失函数来改善图像过于平滑的问题,还通过全局注意力机制和多尺度密集残差模块进一步提取全局信息能力和图像的多尺度特征,PSNR和SSIM两项指标最高,散斑指数最低,均达到了最佳效果。较LDCT图像相比,PSNR提高了19.5%,SSIM提高了10.9%。对比4种方法的散斑指数,可以看出本文算法对散斑噪声的抑制效果最好。从视觉感知和定量性能来看,本文算法在LDCT去噪任务中获得了最优的效果。
表 1 不同算法对LDCT图像降噪对比结果Table 1. Comparison of denoising results of LDCT images using different algorithmsMethod PSNR SSIM SI LDCT 29.4354 0.8660 0.3695 BM3D 31.8327 0.8992 0.3044 RED-CNN 32.6219 0.9169 0.2914 CTformer 34.3157 0.9511 0.2848 Ours 35.1838 0.9605 0.2845 考虑到不同算法在极端噪声条件中的鲁棒性,我们采用了泊松噪声模型,在LDCT图像上加入了强度为1×102的泊松噪声。图8显示了4种算法在极端噪声水平下的去噪结果。从图中可以看出,加入泊松噪声的LDCT图像噪声和伪影更加严重,图像质量明显下降,难以分辨图像中的组织结构和详细信息。通过观察4种方法的效果差异,BM3D方法去噪后图像存留了大量的噪声伪影,RED-CNN和CTformer方法的去噪效果都存在边缘模糊和细节损失的情况(如图中的蓝色箭头所示)。相比之下,本文方法在细节信息和纹理结构方面更具有优势。与其他3种算法相比,所提方法在这种极端噪声条件下具有很强的鲁棒性。
表2显示了4种算法降噪效果的PSNR、SSIM和IS的平均指标,从表2中不同算法对应的极端噪声去噪图像指标可以看出,BM3D、RED-CNN和CTformer算法的各项指标均有所改善,但不同算法的结果差异不明显。同时结果表明,对于本文所提出的MRD-GAMNet,其各项指标都具有最佳值,其网络性能更好。因此,MRD-GAMNet在较好地保留特征信息的前提下,可以更好地实现去噪,使去噪结果在很大程度上接近NDCT。通过分析同一算法对LDCT图像和极端噪声条件中LDCT图像的去噪结果,发现在不同场景下,本文算法与3种比较算法的量化值均有提高。然而,本文方法对不同噪声条件的LDCT图像的去噪性能更稳定,其各项指标均值都达到了较好的效果。
表 2 极端噪声条件下不同算法降噪评价指标Table 2. Evaluation indexes of noise reduction by different algorithms under extreme noise conditionsMethod PSNR SSIM SI LDCT 18.0209 0.6932 0.5629 BM3D 18.5560 0.7313 0.4161 RED-CNN 18.9179 0.7643 0.3848 CTformer 19.7843 0.7358 0.3472 Ours 20.1060 0.7791 0.3102 4 结论
本文提出的MRD-GAMNet网络充分运用了MRDB的多尺度特征提取优势与GAM模块的全局信息提取能力,该网络可以自适应图像数据的复杂性,显著提升去噪的准确性和鲁棒性,使图像中的细微细节得以完整保留。在训练过程中运用了多尺度特征损失函数,避免了图像过于平滑导致模糊的现象。实验结果表明,相比于其他算法,本文方法在图像视觉质量和客观指标上都具有更好的性能,在实现LDCT图像降噪上达到最佳效果。
-
表 1 基于SDI模型的波段选择算法
Table 1 Band selection algorithm based on SDI model
算法:SDI波段选择算法 输入:高光谱图像${\boldsymbol{X}}$,真值图${\boldsymbol{g}}$,波段选择数量$n$ 输出:特征波段子集$ \left\{ {{b_1},{b_2}, \cdots ,{b_n}} \right\} $ 1. 遍历真值图${\boldsymbol{g}}$,得到类别为伪装目标的所有像素坐标集合${\boldsymbol{w}}$以及类别为背景的所有像素坐标集合${\boldsymbol{v}}$; 2. 对图像${\boldsymbol{X}}$进行高斯滤波,计算${\boldsymbol{X}}$中对应坐标集合${\boldsymbol{w}}$和${\boldsymbol{v}}$内所有像素位置上的光谱矢量的平均值${\boldsymbol{x}}$和${\boldsymbol{y}}$; 3. 对所有波段进行均匀子空间划分,得到$n$个子空间$\left\{ {{{\boldsymbol{s}}_1},{{\boldsymbol{s}}_2}, \cdots ,{{\boldsymbol{s}}_n}} \right\}$; 4. for $i = 1$ to $n$: 5. 遍历${{\boldsymbol{s}}_i}$,计算${{\boldsymbol{s}}_i}$内的波段数量$m$; 6. for $k = 1$ to $m$: 7. 通过式(7)计算第$k$个波段的光谱梯度角${\theta _{{\mathrm{SGA}}}}\left( {{{\boldsymbol{x}}_k},{{\boldsymbol{y}}_k}} \right)$; 8. 通过式(8)计算第$k$个波段的Fréchet距离$ F\left( {{{\boldsymbol{x}}_k},{{\boldsymbol{y}}_k}} \right) $; 9. 通过式(9)计算第$k$个波段的皮尔逊相关系数$ r\left( {{{\boldsymbol{x}}_k},{{\boldsymbol{y}}_k}} \right) $; 10. 通过式(10)计算第$k$个波段的光谱差异度指数$ {I_{{\mathrm{SD}}}}\left( {{{\boldsymbol{x}}_k},{{\boldsymbol{y}}_k}} \right) $; 11. end for 12. 将${{\boldsymbol{s}}_i}$内光谱差异度指数最大的波段序号值赋给${b_i}$; 13. end for 表 2 San Diego高光谱公共数据集
Table 2 San Diego hyperspectral public dataset
采集地点 传感器 空间
大小/像素波段
数量/个波长
范围/nm空间
分辨率/m美国圣地
亚哥机场机载AVIRIS
传感器400×400 224 370~ 2510 3.5 表 3 伪装车辆数据集消融实验结果
Table 3 Results of ablation experiments in camouflage vehicle dataset
$ {\theta _{{\mathrm{SGA}}}} $ $F$ $r$ OA/% √ √ 90.51 √ √ 91.06 √ √ 91.07 √ √ √ 95.06 表 4 San Diego停机场数据集消融实验结果
Table 4 Results of ablation experiments in San Diego airport dataset
$ {\theta _{{\mathrm{SGA}}}} $ $F$ $r$ OA/% √ √ 97.70 √ √ 97.75 √ √ 97.75 √ √ √ 98.65 表 5 各方法在伪装车辆数据集上的表现
Table 5 Performance of different methods on camouflage vehicle dataset
方法 ASNR ARE AIE SDI 43.23 12.52 5.29 OCF 34.55 6.01 2.36 BS_Net 45.74 4.29 5.17 GA 36.52 10.93 5.12 SAM 38.21 12.49 5.08 F 38.31 12.45 5.34 表 6 各方法在San Diego停机场数据集上的表现
Table 6 Performance of different methods on San Diego airport dataset
方法 ASNR ARE AIE SDI 51.05 12.69 4.95 OCF 50.18 12.57 5.12 BS_Net 52.13 10.25 4.55 GA 49.79 10.13 4.28 SAM 51.65 12.56 4.43 F 50.93 8.99 4.71 表 7 各方法的运行时间
Table 7 Running time of different methods
s 数据集 SDI OCF BS_Net GA SAM F Camouflage vehicle 3.26 11.57 304.32 65.49 4.68 4.35 San Diego 1.27 1.68 23.25 67.34 1.36 1.53 -
[1] 甘源滢, 刘春桐, 李洪才, 等. 光学图像伪装效果评估研究现状及关键问题[J]. 应用光学, 2019, 40(6): 1050-1058. GAN Yuanying, LIU Chuntong, LI Hongcai, et al. Research status and key issues of optical image camouflage effectiveness evaluation[J]. Journal of Applied Optics, 2019, 40(6): 1050-1058.
[2] 何珂, 孙伟伟, 黄可, 等. 基于多特征深度子空间聚类的高光谱影像波段选择[J]. 遥感学报, 2024, 28(1): 132-141. doi: 10.11834/jrs.20232505 HE Ke, SUN Weiwei, HUANG Ke, et al. Multi-feature deep subspace clustering for hyperspectral band selection[J]. National Remote Sensing Bulletin, 2024, 28(1): 132-141. doi: 10.11834/jrs.20232505
[3] 欧阳亚雄, 彭锐晖, 沙建军, 等. 基于光谱指数的高光谱伪装效果评估[J]. 应用光学, 2023, 44(3): 523-532. doi: 10.5768/JAO202344.0301008 OUYANG Yaxiong, PENG Ruihui, SHA Jianjun, et al. Hyperspectral camouflage effect evaluation based on spectral indices[J]. Journal of Applied Optics, 2023, 44(3): 523-532. doi: 10.5768/JAO202344.0301008
[4] JIA S, YUAN Y, LI N, et al. A multiscale superpixel-level group clustering framework for hyperspectral band selection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022, 60: 1-18.
[5] RASTI B, HONG D, HANG R, et al. Feature extraction for hyperspectral imagery: the evolution from shallow to deep: overview and toolbox[J]. IEEE Geoscience and Remote Sensing Magazine, 2020, 8(4): 60-88.
[6] 赵慧洁, 李明康, 李娜, 等. 一种基于改进子空间划分的波段选择方法[J]. 红外与激光工程, 2015, 44(10): 3155-3160. doi: 10.3969/j.issn.1007-2276.2015.10.048 ZHAO Huijie, LI Mingkang, LI Na, et al. A band selection method based on improved subspace partition[J]. Infrared and Laser Engineering, 2015, 44(10): 3155-3160. doi: 10.3969/j.issn.1007-2276.2015.10.048
[7] 郭彤, 华文深, 刘恂, 等. 改进最佳指数的高光谱快速波段选择方法[J]. 激光杂志, 2016, 37(9): 48-50. GUO Tong, HUA Wenshen, LIU Xun, et al. Rapid hyperspectral band selection approach based on improved optimal index[J]. Laser Journal, 2016, 37(9): 48-50.
[8] MA M, MEI S, LI F, et al. Spectral correlation-based diverse band selection for hyperspectral image classification[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023, 61: 1-13.
[9] WANG Q, ZHANG F, LI X. Optimal clustering framework for hyperspectral band selection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(10): 5910-5922.
[10] CAI Y, LIU X, CAI Z. BS-Nets: an end-to-end framework for band selection of hyperspectral image[J]. IEEE Transactions on Geoscience and Remote Sensing, 2019, 58(3): 1969-1984.
[11] 张立国, 孙胜春, 王磊, 等. 基于类间可分性的波段选择算法[J]. 激光与光电子学进展, 2022, 59(4): 0428003. ZHANG Liguo, SUN Shengchun, WANG Lei, et al. Band selection algorithm based on inter-class separability[J]. Laser & Optoelectronics Progress, 2022, 59(4): 0428003.
[12] 向英杰, 杨桄, 张俭峰, 等. 基于光谱梯度角的高光谱影像流形学习降维法[J]. 激光技术, 2017, 41(6): 921-926. doi: 10.7510/jgjs.issn.1001-3806.2017.06.030 XIANG Yingjie, YANG Guang, ZHANG Jianfeng, et al. Dimensionality reduction for hyperspectral imagery manifold learning based on spectral gradient angles[J]. Laser Technology, 2017, 41(6): 921-926. doi: 10.7510/jgjs.issn.1001-3806.2017.06.030
[13] 张文昊. 弗雷歇距离判断曲线相似度的嵌入式模块[J]. 单片机与嵌入式系统应用, 2020, 20(9): 17-20. ZHANG Wenhao. Embedded module of curve similarity judging based on Fréchet distance[J]. Microcontrollers & Embedded Systems, 2020, 20(9): 17-20.
[14] ALT H, GODAU M. Computing the Fréchet distance between two polygonal curves[J]. International Journal of Computational Geometry & Applications, 1995, 5(1/2): 75-91.
[15] 张爱武, 杜楠, 康孝岩, 等. 非线性变换和信息相邻相关的高光谱自适应波段选择[J]. 红外与激光工程, 2017, 46(5): 538001-01-0538001-09. ZHANG Aiwu, DU Nan, KANG Xiaoyan, et al. Hyperspectral adaptive band selection method through nonlinear transform and information adjacency correlation[J]. Infrared and Laser Engineering, 2017, 46(5): 538001-01-0538001-09.