Hyperspectral camouflage effect evaluation based on spectral indices
-
摘要: 伪装效果评估是伪装技术发展的重要内容。为了充分利用光谱细节信息对目标高光谱伪装效果进行评价,提出了基于光谱指数的伪装效果评估方法,该方法兼具可视化和量化分析的优势。可视化方面,通过光谱指数对高光谱图像进行阈值分割,实现目视解译的伪装效果评估;量化分析方面,以现有的遥感光谱指数为基础,构建新的伪装光谱指数来量化目标与背景的光谱特征,并提出光谱一致性系数指标,将各谱段的光谱指数加权综合进而量化评估目标伪装效果。实验结果表明:该方法的评估结果能够有效辨识目标伪装前后的高光谱伪装效果,且在传统指标相似度达到99%以上时,本文方法仍能有效辨识目标并给出客观评价,其在单个谱段的一致性以及宽谱段的整体匹配性方面评估结果更精准全面,更科学合理。Abstract: Camouflage effect evaluation is an important content in the development of camouflage technology. In order to make full use of spectral details to evaluate the hyperspectral camouflage effect of targets, a camouflage effect evaluation method based on spectral indices was proposed, which had the advantages of visualization and quantitative analysis. In terms of visualization, the hyperspectral image was segmented by spectral indices to realize the camouflage effect evaluation of visual interpretation. In terms of quantitative analysis, based on the existing remote sensing spectral indexes, the new camouflage spectral indexes were constructed to quantify the spectral characteristics of the target and background, and the spectral consistency coefficient index was proposed to weight and synthesize the spectral indexes, so as to quantitatively evaluate the camouflage effect of the target. The experimental results show that the proposed method can effectively identify the hyperspectral camouflage effect before and after target camouflage, and when the similarity of traditional indices reaches more than 99%, this method can still effectively identify the target and give an objective evaluation. Its evaluation results are more accurate, comprehensive, scientific and reasonable in terms of the consistency of single spectral segment and the overall matching of wide spectral segment.
-
引言
单图像超分辨率重建(SR)是计算机视觉中的一个经典问题,它的目标是从一张低分辨率(LR)图像重建高分辨率(HR)图像。SR已广泛应用于视频监控、卫星遥感图像、医学图像、显微镜成像以及图像和视频压缩等诸多领域。虽然针对图像SR提出了许多解决方案,但由于图像SR的病态性和较高的实用价值,在计算机视觉领域仍是一个活跃而富有挑战性的研究课题。近年来,深度学习技术,特别是卷积神经网络(CNN)和残差学习,极大地提升了图像超分辨率重建的性能。SRCNN[1]是首个成功采用CNN来解决SR问题的模型,它是一个简单的3层网络,可以学习低分辨率图像LR和高分辨率图像HR之间的端到端的映射,在当时取得了超越传统算法的重建效果。随后,各种用于超分辨率重建的卷积神经网络相继出现。He Kim等[2]通过引入全局残差学习,将网络深度增加到20层,在SR性能上取得了显著提高。其他一些模型,如DRCN[3]和DRRN[4],则侧重于权重共享,以减小模型参数的比例。虽然这些方法性能优越,但都需要原始LR图像的双三次插值版本作为输入,不可避免地丢失了一些细节,且计算量较大。而反卷积[5]和亚像素卷积[6],可以改善这一问题。相比于双三次插值,它们有助于减少原图像的信息损失。为了生成高质量的图像,Johnson等人提出了基于从预先训练的网络中提取的高级特征的感知损失函数,与使用逐像素损失训练的方法相比,该函数可以重构更精细的细节。近年来生成对抗网络(GANs)[7]在包括单图像超分辨率重建在内的许多计算机视觉任务中都取得了良好的效果。Ledig等人[8]使用GANs(SRGAN)获得了逼真的自然图像,其在视觉效果上明显优于非GAN网络重建的图像,但也产生了许多伪细节纹理。
综合来看,目前已有的基于CNN进行超分辨率重建的方法可以分为两大类。第一种方法将SR作为重构问题,采用均方误差MSE作为损失函数来实现高的峰值信噪比(PSNR)和结构相似度(SSIM)值,以SRCNN等作为代表。然而,这种方法往往产生过度平滑的图像,在纹理细节上难以满足人的视觉感知需要。为了获得更好的感知质量,第二种方法将SR转换为图像生成问题。通过结合感知损失[9]与生成对抗网络(GAN),这种SR方法具有生成符合人视觉效果的纹理和细节的潜力,以SRGAN为代表。尽管GAN网络生成的高分辨率图像具有良好的感知效果,但也生成了很多原图并不具有的纹理细节,其忠实性很成问题。这表现在GAN网络生成的高分辨率图像PSNR和SSIM值通常都较低。
针对上述问题,本文提出了一种基于深度反向投影的感知增强SR网络模型,设计了双尺度自适应加权融合的特征提取模块,基于深度反向投影的重建模块和具有U-net结构的增强模块。采用稠密连接[10]和残差连接以实现图像特征的重复利用和减少梯度消失对模型优化的影响,并引入了可学习的感知相似度[11](LPIPS)作为新的图像感知质量的评价指标和损失函数。模型可以在4倍下采样因子下重建超分辨率图像,实验结果表明,本文提出的模型在保持较高的PSNR和SSIM值的同时,感知质量也优于SRGAN生成的超分辨率图像。
1 模型
1.1 网络结构
网络结构总体分为特征提取模块、重建模块、增强模块,如图1所示。
本文结合亚像素卷积和逆亚像素卷积设计了双尺度自适应加权融合特征提取模块。该模块有2个输入分支,一支和原图分辨率相同,另一支通过亚像素卷积得到分辨率减小一半的低分辨率特征图。2个分支分别通过亚像素卷积和逆亚像素卷积[12]进行上采样和下采样,以实现两组特征图不同分辨率之间的相互转化,相比于常用的池化和各种插值实现下采样和上采样,亚像素卷积和逆亚像素卷积能够完整地保留原特征图的信息。不同分辨率的特征图分别经过上采样和下采样之后,与另一分支分辨率同样大小的特征图并行连接,并分别与各自的可学习的权重向量相乘,以自适应的调节各通道权重,藉此实现不同分辨率之间的自适应信息交互,最后再分别进行卷积,如图2所示。所有卷积核大小均为3×3,步长为1,通道数见表1。每个卷积核之后接PReLU激活函数。
表 1 特征提取模块中各卷积核通道数Table 1. Number of each convolution kernel channel in feature extraction module卷积核 Conv1 Conv2 Conv3 Conv4 Conv5 Conv6 通道数 32 32 64 64 128 512 亚像素卷积的主要功能是将通道数为
$c$ 、大小为$w \times h$ 的特征图组合为新的通道数为${c}/{{{r^2}}}$ 、大小为$(wr) \times (hr)$ 的高分辨率特征图,其中$r$ 为上采样因子。具体来说,就是将原来低分辨特征图的一个像素点扩充为$r \times r$ 个像素点,利用$r \times r$ 个低分辨率特征图的同一像素位置的值按照一定的规则来填充扩充后的$r \times r$ 个像素点。按照同样的规则将每个低分辨像素点进行扩充就完成了重组过程,过程中没有损失任何像素信息,且没有可学习的参数。逆亚像素卷积则是将上述过程反过来,从高分辨率得到下采样后的低分辨率图像,图像分辨率减小而通道数增加。特征提取模块可用公式表达如下:
$$ \begin{array}{*{20}{l}} {{X_1} = P({X_0}*{C_1})}\\ {{X_2} = P(({X_0}*{C_2})}\\ {{X_3} = P({X_2}*{C_3})}\\ {{X_4} = P(({X_1}*DS)*{C_4})}\\ {{X_l} = Cat({X_3}*DS,{X_4})}\\ {{X_h} = Cat({X_4}*S,{X_3})}\\ {{X_{hw}} = Cat(\alpha _1^1X_h^1, \cdots ,\alpha _1^iX_h^i, \cdots ,\alpha _1^{{c_1}}X_h^{{c_1}}),1 \leqslant i \leqslant {c_1}}\\ {{X_{lw}} = Cat(\alpha _2^1X_h^1, \cdots ,\alpha _2^jX_l^j, \cdots ,\alpha _2^{{c_2}}X_l^{{c_2}}),1 \leqslant j \leqslant {c_2}}\\ {{X_5} = P({X_{hw}}*{C_5})}\\ {{X_6} = P({X_{lw}}*{C_6})*S}\\ {{X_7} = {X_6} + {X_5}} \end{array} $$ 式中:
${X_k}(k = 1, \cdots ,7)$ 为特征图;${C_m}(m = 1, \cdots ,6)$ 为卷积核;${X_h}$ 表示并行连接后的高分辨率特征图;${X_l}$ 代表并行连接后的低分辨率特征图;$X_h^i(1 \leqslant i \leqslant {c_1})$ 表示${X_h}$ 的第$i$ 个通道;${c_1}$ 为${X_h}$ 的通道数;$X_l^j(1 \leqslant j \leqslant {c_2})$ 表示${X_l}$ 的第$j$ 个通道;${c_2}$ 为${X_l}$ 的通道数;${\alpha _1}{\rm{ = (}}\alpha _1^1, \cdots , $ $ \alpha _1^{{c_1}}{\rm{)}}$ 和${\alpha _2}{\rm{ = (}}\alpha _2^1, \cdots ,\alpha _2^{{c_2}}{\rm{)}}$ 为可学习的权重向量,初始值为单位向量;${X_{hw}}$ 为按通道加权后的高分辨率特征图;${X_{lw}}$ 为按通道加权后的低分辨率特征图;*表示卷积运算;$S$ 表示亚像素卷积;$DS$ 为逆亚像素卷积;$ P( \cdot )$ 为PReLU激活函数;$ Cat( \cdot)$ 表示特征图的并行连接。重建模块以深度反向投影[13]为基础,将低分辨率特征图4倍上采样为高分辨特征图。迭代反向投影通过交替使用上采样块(Up-block)和下采样块(Down-block)(见图4)来迭代学习低分辨率和高分辨率图像之间的误差,以更好的重建高分辨率图像。文献[14]证明了反向投影在超分辨率重建任务中的有效性。与文献[13]不同的是,本文采用亚像素卷积代替了原结构中的反卷积进行上采样,这显著减少了网络参数和运算量。本文使用了4个上采样块和3个下采样块进行重建,且各个上采样快(下采样块)之间进行了稠密连接,以共享特征图及防止梯度消失,如图3。
第
$t$ 个上采样块通过亚像素卷积将输入的LR图像${L^{t - 1}}$ 上采样为HR图像$H_0^t$ ,$H_0^t$ 经卷积下采样为LR图像$L_0^t$ ,然后将$L_0^t$ 与${L^{t - 1}}$ 按像素作差,得到$e_t^l$ ,再经亚像素卷积得到HR图像$H_1^t$ ,最后将$H_1^t$ 与$H_0^t$ 按像素求和,得到输出${H^t}$ ,如图4(a)所示。卷积核的参数为:核大小为8,步长为4,填充为2。上采样块的结构可用公式表达如下:
$$ \begin{array}{*{20}{l}} {H_0^t = P({L^{t - 1}}*S)}\\ {L_0^t = P(H_0^t*C)}\\ {e_t^l = L_0^t - {L^{t - 1}}}\\ {H_1^t = P(e_t^l*S)}\\ {{H^t} = H_0^t + H_1^t} \end{array} $$ 式中:
$S$ 表示亚像素卷积;$ P( \cdot)$ 表示激活函数PReLU;$C$ 表示卷积核;*表示卷积运算;t=1,2,3,4。下采样块结构与上采样块类似,如图4(b)所示,用公式表达为
$$ \begin{array}{*{20}{l}} {L_0^t = P({H^t}*C)}\\ {H_0^t = P(L_0^t*S)}\\ {e_t^h = H_0^t - {H^t}}\\ {L_1^t = P(e_t^h*C)}\\ {{L^t} = L_0^t + L_1^t} \end{array} $$ 各采样块通道数见表2。
表 2 各采样块通道数Table 2. Number of each sampling block channel采样块 Up-block1 Down-block1 Up-block2 Down-block2 Up-block3 Down-block3 Up-block4 通道数 8 8 8 16 24 40 64 增强模块以U-net[15]结构为主体,通过对重建后的图像进行增强以提高视觉感知。U-net最早用于医学图像分割,其结构特征为:先上采样,后下采样,且同分辨率之间采用跳跃连接[16]。这种结构有助于网络学习到不同尺度的特征,有效避免梯度消失的问题,结合低分辨率和高分辨率信息获得很好的学习效果。这也使得U-net近年来被广泛应用于图像分割、目标检测、图像生成等领域。
本文设计的U-net结构如图5。重建后的HR图像依次和7×7×64、5×5×64、3×3×32的卷积核进行卷积,得到下采样图像,然后依次进入5个稠密残差块(见图5右边),最后再与3×3×32、5×5×64、7×7×104、3×3×3的反卷积进行卷积得到最终输出的HR图像。这里跳跃连接是按对应像素求和。除最后一层的3×3的卷积核填充为1外,其余填充皆为0,所有卷积核步长均为1。
稠密残差块由4个卷积层组成,依次有32、32、64、128个通道,所有卷积核大小皆为3×3,填充为1。卷积层之间采用了稠密连接:每一层都以前面所有层的输出作为输入。这种连接方式可以共享稠密残差块内的特征,文献[17]表明,共享底层特征对于图像中结构细节的正确重建非常重要,同时也增加了后续层输入的变化,有助于网络学习到更多信息。最后的输出采用了残差连接。
1.2 损失函数
本文的损失函数使用
${L_2}$ 范数,包括像素间的损失${L_p}$ 以及特征图之间的LPIPS损失${L_{{\rm{LPIPS}}}}$ 。记I为原图,
${I_{{\rm{SR}}}}$ 为模型的输出图,则$${L_{{p}}} = {\left\| {I - {I_{{\rm{SR}}}}} \right\|_2}$$ 式中
$ {\Vert \centerdot \Vert }_{2}$ 表示${L_2}$ 范数。${L_{{\rm{LPIPS}}}}$ 损失以LPIPS指标作为损失函数,对于LPIPS指标的介绍见2.2。模型总的损失$L$ 为$$L = {L_{{p}}} + \lambda {L_{{\rm{LPIPS}}}}$$ 式中
$\lambda $ 为参数,经实验后,取$\lambda $ 为0.1。2 实验
2.1 数据与超参数
本文使用General-100作为训练数据集,测试数据使用了从Flickr2K数据集中裁剪的部分图片。训练时对训练集的图像进行随机裁剪得到80×80像素大小的图像块,然后对图像块进行4倍因子的下采样以获得低分辨率输入图像。下采样采用Bicubic算法。
本文使用Pytorch框架训练模型,学习率为0.0001,优化算法采用Ranger算法,该算法结合了RAdam算法[18]和LookAhead算法[19],能够使网络更为稳定快速地收敛。模型迭代次数为9000次,批大小为30,损失函数曲线见图6所示。
2.2 评价指标
本文采用的图像评价指标有峰值信噪比(PSNR)、结构相似度(SSIM)、可学习的感知相似度(LPIPS)。
PSNR是最普遍和使用最为广泛的一种图像客观评价指标,数值越大说明与原图越接近。然而它是基于对应像素点间的误差,即基于误差敏感的图像质量评价。由于并未考虑到人眼的视觉特性(人眼对空间频率较低的对比差异敏感度较高,人眼对亮度对比差异的敏感度较色度高,人眼对一个区域的感知结果会受到其周围邻近区域的影响等),因而经常出现评价结果与人的主观感觉不一致的情况。
SSIM是一种评价图像质量的主观评价指标,其值介于0~1之间,越接近1说明与原图越相似。SSIM算法在设计上考虑到了图像的结构信息在人的感知上的变化,该模型还引入了一些与感知上的变化有关的感知现象和结构信息,结构信息指的是像素之间有着内部的依赖性,尤其是空间上靠近的像素点。这些依赖性携带着目标对象视觉感知上的重要信息,因此SSIM比PSNR更适于评价图像的感知效果。
可学习的感知相似度(LPIPS)于2018年被提出,是一种基于学习的感知相似性度量指标。与感知损失类似,其方法是:使用预训练网络(如VGG和Alex)的某些层得到特征图,然后再训练另一个精心设计的网络,网络输出特征图的距离,距离越小说明感知质量越好。实验证明感知相似度比传统相似性度量方法更好。近年来,这一指标多用于GAN网络生成的图像的评价。相比于PSNR、SSIM指标,LPIPS更能反映出由GAN所生成的图像的感知优势。
2.3 实验结果
实验从Flickr2K数据集中选取了7张图片进行测试,在4倍上采样因子下,将本文的算法结果与Bicubic、SRCNN、SRGAN的重建结果进行了对比,重建效果展示见图7,对比指标有PSNR、SSIM、LPIPS,对比结果见表3、表4、表5,表中最优结果均加粗显示。
表 3 PSNR对比结果Table 3. PSNR comparison resultsa b c d e f g Bicubic 25.9295 31.8773 28.6333 24.4575 24.8693 25.5690 21.9727 SRCNN 26.7771 33.6633 30.2398 26.3067 26.2491 25.7966 22.3688 SRGAN 24.5492 28.5841 23.4904 17.9372 20.7947 24.9596 21.1357 本文 26.8326 34.6261 30.4308 26.5383 27.4615 26.6875 22.3342 表 4 SSIM对比结果Table 4. SSIM comparison resultsa b c d e f g Bicubic 0.7139 0.8679 0.8489 0.6854 0.6412 0.5014 0.4729 SRCNN 0.7620 0.8937 0.8842 0.7803 0.7003 0.5397 0.5293 SRGAN 0.7456 0.8298 0.8030 0.6196 0.6312 0.5393 0.5257 本文 0.7682 0.9011 0.8962 0.7720 0.7126 0.5412 0.5329 表 5 LPIPS对比结果Table 5. LPIPS comparison resultsa b c d e f g Bicubic 0.1770 0.1137 0.1321 0.3948 0.2154 0.2984 0.3156 SRCNN 0.1258 0.0603 0.0687 0.2521 0.1341 0.2734 0.2818 SRGAN 0.1153 0.0436 0.0521 0.2173 0.0947 0.2364 0.2767 本文 0.0760 0.0382 0.0481 0.1882 0.0812 0.2269 0.2222 由表3、表4、表5可见,本文算法在PSNR、SSIM两项指标对比中,7个样本中有6个样本优于对比算法,在基于学习的感知评价指标LPIPS上则全面优于对比算法。同时可以看到,Bicubic和SRCNN在PSNR、SSIM指标上优于SRGAN,而SRGAN则在LPIPS指标上优于Bicubic和SRCNN。本文算法则在保持高的PSNR、SSIM值的情况下,同时拥有较低的LPIPS值。
3 结论
本文提出了一种基于迭代反向投影的感知增强SR模型,设计了双尺度自适应加权融合特征提取模块、基于深度反向投影的重建模块以及具有U-net结构的增强模块。结合像素间的损失和LPIPS指标作为损失函数。实验和指标评价表明,相比于SRCNN模型只追求高的PSNR和SSIM值,SRGAN模型只追求高的感知质量而不顾图像细节的忠实性,本文所提出的模型能够在保持较高PSNR和SSIM值的情况下,同时获得较好的感知质量。
-
表 1 光谱指数定义及原理描述
Table 1 Definition and principle description of spectral indices
背景类型 光谱指数 定义 原理描述 林地背景 NDVI $\dfrac{{{\rho _{860}} - {\rho _{650}}}}{{{\rho _{860}}{\text{ + }}{\rho _{650}}}}$ 植被在860 nm处存在反射峰,650 nm处吸收强烈,因此该指数为正且值较大时表示植被,该指数值越接近于1表示越可能为植被。 GVI $ \dfrac{{{\rho _{550}} - {\rho _{400}}}}{{{\rho _{550}} + {\rho _{400}}}}{\text{ + }}{\rho _{500}} $ 植被在400 nm~650 nm范围内反射率整体较低且变化不大,故该指数为正且值较小表示植被,一般植被的取值范围为0~0.3。 NVI $ \dfrac{{{\rho _{900}} - {\rho _{800}}}}{{{\rho _{900}} + {\rho _{800}}}}{\text{ + }}{\rho _{850}} $ 植被在800 nm~1 000 nm范围内反射率整体较高,900 nm和800 nm处的反射率基本相同,故该指数值在0.3~0.6范围内表示植被。 雪地背景 NDSINIR $\dfrac{{{\rho _{550}} - {\rho _{960}}}}{{{\rho _{550}}{\text{ + }}{\rho _{960}}}}$ 雪地在可见光到近红外范围内反射率呈缓慢下降趋势,960 nm处反射率低于550 nm处,但幅度相差较小,因此该指数为正且较小时表示积雪,一般积雪在0~0.1范围内。 MSI $ \dfrac{{{\rho _{450}}{\text{ + }}{\rho _{750}}{\text{ + }}{\rho _{950}}}}{3} $ 雪地在可见光到近红外范围内反射率整体很高,达到0.7左右,该指数选取特定波段反射率均值,其值在0.6~0.8范围内表示雪地。 注:ρx表示波段为x/nm处的反射率。 表 2 Resonon Pika L参数
Table 2 Parameters of Resonon Pika L
参数名称 数值 光谱范围/nm 400~1 000 光谱分辨率/nm 2.1 光谱通道数 281 空间通道数 900 每秒最大帧数/fps 249 位深度 12 质量/kg 0.6 尺寸/cm 10.0×12.5×5.3 连接方式 USB 3.0 孔径 f/2.4 像元尺寸/μm 5.86 平均RMS半径/μm 6 表 3 林地背景下目标与背景各光谱指数均值
Table 3 Mean value of spectral indexes of target and background under forest land background
目标或背景类型 NDVI GVI NVI A 0.0369 0.8288 0.4748 B 0.3916 0.0804 0.3808 C 0.5597 0.2517 0.5492 表 4 目标伪装前后光谱指数差值及权重系数k
Table 4 Spectral index difference and weight coefficien k before and after target camouflage
差值与权重 NDVI GVI NVI |A-B| 0.3547 0.7484 0.0940 k 0.2963 0.6252 0.0785 表 5 目标伪装前后光谱一致性系数SCCveg
Table 5 Spectral consistency coefficient SCCveg before and after target camouflage
光谱指数差值 NDVI GVI NVI SCCveg |A-C| 0.5228 0.5772 0.0744 0.5216 |B-C| 0.1681 0.1713 0.1684 0.1701 表 6 林地背景下目标与背景光谱距离及光谱角
Table 6 Spectral distance and spectral angle between target and background under forest land background
目标类型 D cosα A 7.3268 0.8060 B 2.0190 0.9703 表 7 雪地背景下目标与背景各光谱指数均值
Table 7 Mean value of each spectral index of target and background under snow background
目标或背景类型 NDSINIR MSI D −0.7627 0.4228 E −0.0375 0.6716 F 0.0942 0.6164 表 8 目标伪装前后光谱指数差值及权重系数k
Table 8 Spectral index difference and weight coefficient k before and after target camouflage
差值与权重 NDSINIR MSI |E-D| 0.7253 0.2488 k 0.7446 0.2554 表 9 目标伪装前后光谱一致性系数SCCsnow
Table 9 Spectral consistency coefficient SCCsnow before and after target camouflage
光谱指数差值 NDSINIR MSI SCCsnow |D-F| 0.8569 0.1936 0.6875 |E-F| 0.1316 0.0552 0.1121 表 10 雪地背景下目标与背景光谱距离及光谱角
Table 10 Spectral distance and spectral angle between target and background under snow background
目标类型 d cosφ D 6.4600 0.7736 E 2.3267 0.9927 -
[1] 王君光, 关松. 高光谱成像卫星发展研究[J]. 光电技术应用,2020,35(3):1-7. doi: 10.3969/j.issn.1673-1255.2020.03.001 WANG Junguang, GUAN Song. Research on development of hyper-spectral imaging satellite[J]. Electro-Optic Technology Application,2020,35(3):1-7. doi: 10.3969/j.issn.1673-1255.2020.03.001
[2] 麻永平, 张炜, 刘东旭. 高光谱侦察技术特点及其对地面军事目标威胁分析[J]. 上海航天,2012,29(1):37-40. doi: 10.19328/j.cnki.1006-1630.2012.01.008 MA Yongping, ZHANG Wei, LIU Dongxu. Characteristics of hyperspectral reconnaissance and threat to ground military targets[J]. Aerospace Shanghai,2012,29(1):37-40. doi: 10.19328/j.cnki.1006-1630.2012.01.008
[3] KRUSE F A, LEFKOFF A B, BOARDMAN J W, et al. The spectral image processing system (SIPS)—interactive visualization and analysis of imaging spectrometer data[J]. Remote Sensing of Environment,1993,44(2/3):145-163.
[4] CHANG C I, CHIANG S S. Anomaly detection and classification for hyperspectral imagery[J]. IEEE Transactions on Geoscience and Remote Sensing,2002,40(6):1314-1325. doi: 10.1109/TGRS.2002.800280
[5] 刘恂, 华文深, 杨佳. 面向高光谱探测的伪装效果评价方法[J]. 红外与激光工程,2014,43(10):3228-3232. doi: 10.3969/j.issn.1007-2276.2014.10.010 LIU Xun, HUA Wenshen, YANG Jia. Camouflage effect evaluation based on hyperspectral detecting technology[J]. Infrared and Laser Engineering,2014,43(10):3228-3232. doi: 10.3969/j.issn.1007-2276.2014.10.010
[6] 华文深, 杨佳, 刘恂, 等. 基于高光谱特征的迷彩伪装评价[J]. 应用光学,2013,34(6):964-967. HUA Wenshen, YANG Jia, LIU Xun, et al. Camouflage assessment based on hyperspectral characteristics[J]. Journal of Applied Optics,2013,34(6):964-967.
[7] 马世欣, 刘春桐, 李洪才, 等. 基于高光谱图像探测与感知的伪装效果评估方法[J]. 兵工学报,2019,40(7):1485-1494. doi: 10.3969/j.issn.1000-1093.2019.07.019 MA Shixin, LIU Chuntong, LI Hongcai, et al. Camouflage effect evaluation based on hyperspectral image detection and visual perception[J]. Acta Armamentarii,2019,40(7):1485-1494. doi: 10.3969/j.issn.1000-1093.2019.07.019
[8] ROUSE J W, HAAS R H, SCHELL J A, et al. Monitoring vegetation systems in the great plains with ERTS[J]. Nasa Special Publication,1974,351:309-317.
[9] NAGANO H, KOTANI A, MIZUOCHI H, et al. Contrasting 20-year trends in NDVI at two Siberian larch forests with and without multiyear waterlogging-induced disturbances[J]. Environmental Research Letters,2022,17(2):025003. doi: 10.1088/1748-9326/ac4884
[10] 宋桂兰, 汤顺青. 迷彩伪装的谱识别方法[J]. 北京理工大学学报,1996,16(6):567-570. doi: 10.15918/j.tbit1001-0645.1996.06.001 SONG Guilan, TANG Shunqing. A method of spectral pattern recognition for color camouflage[J]. Journal of Beijing Institute of Technology,1996,16(6):567-570. doi: 10.15918/j.tbit1001-0645.1996.06.001
[11] 段维纳, 竞霞, 刘良云, 等. 融合SIF和反射光谱的小麦条锈病遥感监测[J]. 光谱学与光谱分析,2022,42(3):859-865. doi: 10.3964/j.issn.1000-0593(2022)03-0859-07 DUAN Weina, JING Xia, LIU Liangyun, et al. Monitoring of wheat stripe rust based on integration of SIF and reflectance spectrum[J]. Spectroscopy and Spectral Analysis,2022,42(3):859-865. doi: 10.3964/j.issn.1000-0593(2022)03-0859-07
[12] ALDUBAI A A, ALSADON A A, AL-GAADI K A, et al. Utilizing spectral vegetation indices for yield assessment of tomato genotypes grown in arid conditions[J]. Saudi Journal of Biological Sciences,2022,29(4):2506-2513. doi: 10.1016/j.sjbs.2021.12.030
[13] RIGGS G A, HALL D K, SALOMONSON V V. A snow index for the landsat thematic mapper and moderate resolution imaging spectroradiometer[C]//Proceedings of IGARSS'94-1994 IEEE International Geoscience and Remote Sensing Symposium. Pasadena: IEEE, 2002: 1942-1944.
[14] ALI S, CHEEMA M J M, WAQAS M M, et al. Changes in snow cover dynamics over the Indus basin: evidences from 2008 to 2018 MODIS NDSI trends analysis[J]. Remote Sensing,2020,12(17):2782. doi: 10.3390/rs12172782
[15] 王京达, 郝晓华, 和栋材, 等. 基于AVHRR影像的北半球积雪识别算法[J]. 冰川冻土,2022,44(1):316-326. WANG Jingda, HAO Xiaohua, HE Dongcai, et al. Snow discrimination algorithm in the northern hemisphere based on AVHRR image[J]. Journal of Glaciology and Geocryology,2022,44(1):316-326.
-
期刊类型引用(0)
其他类型引用(1)