基于引导滤波的Mie散射光谱分析

肖韶荣, 周炜炜

肖韶荣, 周炜炜. 基于引导滤波的Mie散射光谱分析[J]. 应用光学, 2017, 38(6): 923-930. DOI: 10.5768/JAO201738.0602004
引用本文: 肖韶荣, 周炜炜. 基于引导滤波的Mie散射光谱分析[J]. 应用光学, 2017, 38(6): 923-930. DOI: 10.5768/JAO201738.0602004
Xiao Shaorong, Zhou Weiwei. Analysis of Mie scattering spectrum based on guided filtering[J]. Journal of Applied Optics, 2017, 38(6): 923-930. DOI: 10.5768/JAO201738.0602004
Citation: Xiao Shaorong, Zhou Weiwei. Analysis of Mie scattering spectrum based on guided filtering[J]. Journal of Applied Optics, 2017, 38(6): 923-930. DOI: 10.5768/JAO201738.0602004

基于引导滤波的Mie散射光谱分析

基金项目: 

公益性(气象)行业专项 GYHY201206037

江苏省科技支撑计划 BE2010733

详细信息
    作者简介:

    肖韶荣(1958—),男,江西吉安人,博士,教授,主要从事激光技术应用和光电系统信号处理的技术方面的研究。E-mail: sr.xiao@163.com

  • 中图分类号: TN29; TH741; O436.2

Analysis of Mie scattering spectrum based on guided filtering

  • 摘要: 为提高白光散射法反演粒子粒径精度,消除散射谱噪声,使用一维引导滤波对不同角度的Mie散射光谱数据进行滤波,并分析了引导滤波的特性。为解决引导数据引起的局部噪声问题,提出了小波-引导滤波联合算法。在小散射角时,引导滤波的结果与小波滤波类似,但在大散射角时,引导滤波的效果要比小波滤波好,并且滤除了脉冲噪声。小波-引导联合滤波的结果在15°附近与引导滤波相同,在45°到90°时的滤波效果明显比单独的小波滤波或引导滤波效果好,并且去除了由引导数据引起的局部噪声。
    Abstract: In order to improve the accuracy of particle size inversion, eliminate the scattering spectrum noise, the Mie scattering spectrum data of different angles were filtered by one dimensional guided filter, and the characteristics of the guided filter were analyzed. In order to solve the problem of local noise caused by the guidance data, a wavelet-guided filtering algorithm was proposed. The results show that the filtering result is similar to that of the wavelet filter in the small scattering angle, but the filtering effect is better than the wavelet filter in the large scattering angle, and the pulse noise may be filtered out. The result of wavelet-guided joint filtering is the same as that of the guided filter at 15°, the filtering effect is better than that of the wavelet filter or the guided filter at 45° to 90°, and the local noise caused by the guidance data can be removed.
  • 随着视频人体行为识别(human action recognition)在视频安防监控、人体姿态识别、视频检索和人机交互等领域展现的巨大潜力,越来越多的机器视觉研究工作者开始重视如何使计算机自动准确地理解视频人体行为这一问题。

    目前,对视频人体行为识别的研究方法大致可以分为两类。第1类是将视频图像的全局或局部特征输入到支持向量机或随机树等分类器中进行动作分类。传统的局部特征主要有:人体空域行为特性的方向梯度直方图(histogram of oriented gradient, HOG)和人体时域行为特性的光流方向直方图[1](histogram of oriented gradient, HOF)、时空兴趣点描述子[2](spatial-time interest point, STIP)、运动边界描述子[3](motion boundary histogram, MBH)及其在三维方向上的扩展,如HOG3D[4]、SIFT3D[5]等。全局特征主要有:人体骨架特征[6-7],包含运动位置信息的运动能量图(motion energy images, MEI)和包含运动位置以及时间信息的运动历史图[8](motion history images, MHI)。最近提出的密集轨迹描述子[9](improved dense trajectories, IDT)由于融合了HOG、HOF、MBH以及特征编码等方法,目前在手工提取特征的算法中效果最为显著。第2类方法是使用最近在目标识别、场景分类等领域具有显著效果的卷积神经网络[10-12]。Tran[13-14]等在网络中使用3D卷积层来直接学习视频的时间和空间信息,再通过全连接层后对动作进行分类。Simonyan[15]等将视频提取为包含空间信息的彩色图像以及包含帧间信息的光流图像后,分别输入2个使用2D卷积层的网络后,再将结果加权求和,也取得了显著的提升效果。Wang[16]等在双流网络的基础上,采用了分段结构,从而解决了视频长度对双流网络分类的影响。Feichtenhofer[17]等人尝试将彩色图像和光流图像在双流网络的中部开始交叉影响,而不是在分类的最后才进行融合。Diba[18]等充分考虑了图像的帧间联系,将各条网络输出的图像结果用双线性特征编码的方式进行分类。

    近年对人体行为识别的研究主要集中在可见光领域,对夜视领域的研究相对较少。而很多涉及到人身安全的人体行为动作往往发生在夜晚及黑暗无光的地方,因此,针对夜视情况下基于红外热成像的人体行为识别具有重要意义。

    由于红外人体行为识别的研究极少,因此该类数据集的行为种类不够丰富。目前仅有文献[19]中使用的含12种基本红外行为动作的数据集。针对此问题,本文首先构建了含23种红外行为动作类别的数据集,然后实现了基于双流卷积神经网络的红外人体行为识别模型。本模型的输入分别是包含视频空间内容及位置信息的红外图像,以及包含视频时间变化信息的红外光流图像。但该模型与目前文献中的双流网络不同。首先针对传统双流网络较难识别长视频的问题,本模型首先将视频平均分为若干段,然后将每一小段视频中抽取的红外图像和其对应的光流图像输入空间卷积神经网络,之后将每一小段的结果进行融合得到空间网络结果。同时将每一小段视频中抽取的光流图像序列输入时间卷积神经网络,融合每一小段的结果后得到时间网络结果。最后再将两条网络流的结果进行加权求和得到视频行为分类结果,从而充分地利用了整个视频的信息并解决了视频的长短不一问题。其次,空间卷积神经网络所要学习的特征应该是红外图像中发生了运动的那部分信息,为了使空间网络可以更好地关注这部分信息,本模型所构建的空间卷积神经网络由2条网络流组成,将红外图像和对应的光流图像分别作为2条网络流的输入,在学习红外图像空间信息的同时,融合了对应的光流信息特征,这比单纯地识别红外图像的正确率要高。

    由于从红外视频中抽取的红外图像包含视频图像的空间静态内容信息和位置信息,有助于了解视频的基本内容;光流图像则包含视频帧间动态变化信息,提供了视频随时间产生的变化信息。因此,本文构建了一个时空双流卷积神经网络,该网络包含2条网络流,分别学习红外视频的空间信息和时间信息,最后再将2条网络流的结果进行加权求和,从而得到对整个红外视频的人体行为分类。

    由于视频片段的长短不同,因而类似文献[14]所采用的截取部分视频片段输入到网络中的方法,很容易因为未恰好截取到行为动作的视频或者视频中包含了部分其他动作而导致网络结构的错误判断。同时,文献[15]则充分对视频采取了密集采样的方式,导致网络学习的视频信息大幅度增多。事实上,视频中紧邻的图像帧间变化相对极小,因此本文所采用的网络结构,首先对视频进行稀疏采样,即首先将视频平均分为若干段,然后再将若干段视频通过网络后的结果进行融合,既可以充分地利用到整个视频信息,又能有效地降低需要学习的视频信息量。本文所采用的时空双流卷积神经网络结构图如图 1所示。

    图  1  时空双流卷积神经网络结构图
    Figure  1.  Structure diagram of spatio-temporal two-stream convolutional neural network

    图 1中,本文首先将输入的红外视频平均分为K段,可以得到K个长度相同的片段(V1, V2, …, VK), 空间卷积网络的结果Sspatial可以表示为

    $$ {S_{{\rm{spatial}}}} = G(f({t_1};W), f({t_2};W), \ldots , f({t_k};W)) $$ (1)

    式中:t1是从V1中随机抽取的灰度图像和与其对应的光流图像,相应地(t1, t2, …, tK)为从(V1, V2, …, VK)中随机抽取的图像序列;W为空间卷积网络中对应的网络结构参数,通过调整W的值来不断学习视频空间特征;f(tk; W)则代表第K段视频的空间网络输出结果;G函数则是将所有通过空间卷积神经网络后的结果进行融合,本文所采取的融合方式为平均值融合,即将每一段的结果f(tk; W)求和之后取其平均值,从而得到空间卷积网络的结果。时间卷积网络的结果Stemporal也可以同理得到:

    $$ {S_{{\rm{temporal}}}} = G(f({t_1};W), f({t_2};W), \ldots , f({t_k};W)) $$ (2)

    最后的视频分类结果Slabels则由SspatialStemporal通过加权求和的方式得到。其中k1k2的取值为正整数,具体数值是使Slabels值为最大值的组合,即:

    $$ {S_{{\rm{labels}}}} = {k_1}\;\cdot\;{S_{{\rm{spatial}}}} + {k_2}\;\cdot\;{S_{{\rm{temporal}}}}{\rm{}} $$ (3)

    时间卷积神经网络的输入是包含红外视频动态变化信息的光流图像。本文通过光流提取算法[20]提取出对应的关于横轴和纵轴2个方向的光流图像,因此一帧视频图像将有2张相应的光流图像。由于深度卷积神经网络[21-22]目前在机器视觉中取得了较为显著的效果,因此本文的时间卷积神经网络的基础网络使用了深度卷积网络BN-Inception[21]。BN-Inception网络的详细配置如表 1所示。

    表  1  BN-Inception网络结构的参数配置
    Table  1.  Parameter configuration of BN-Inception network structure
    网络层 窗口大小/滑动步长 输出特征图大小 深度 #1×1 单层#1×1 单层#3×3 双层#1×1 双层#3×3 池化+卷积
    卷积层1 7×7/2 112×112×64 1
    池化层1 3×3/2 56×56×64 0
    卷积层2 3×3/1 56×56×192 1 64 192
    池化层2 3×3/2 28×28×192 0
    Inception(3a) 28×28×256×3 3 64 64 64 64 96 Avg+32
    Inception(3b) 28×28×320 3 64 64 96 64 96 Avg+64
    Inception(3c) stride 2 28×28×576 3 0 128 160 64 96 Max+pass through
    Inception(4a) 14×14×576 3 224 64 96 96 128 Avg+128
    Inception(4b) 14×14×576 3 192 96 128 96 128 Avg+128
    Inception(4c) 14×14×576 3 160 128 160 128 160 Avg+128
    Inception(4d) 14×14×576 3 96 128 192 160 192 Avg+128
    Inception(4e) Stride 2 14×14×1 024 3 0 128 192 192 256 Max+pass through
    Inception(5a) 7×7×1 024 3 352 192 320 160 224 Avg+128
    Inception(5b) 7×7×1 024 3 352 192 320 192 224 Max+128
    池化层3 7×7/1 1×1×1 024 0
    下载: 导出CSV 
    | 显示表格

    时间卷积神经网络由1条BN-Inception网络组成,本文以BN-Inception网络识别彩色图像的参数作为初始参数进行训练,输入为每一小段视频随机截取的n张红外图像所对应的光流图像序列。由于每一张红外图像有对应的横轴和纵轴2个方向的光流图像,因此输入光流图像序列的长度为2n。时间卷积神经网络通过对连续的2n张包含视频动作变化信息的光流图像进行学习,从而得到时间卷积网络的结果Stemporal

    空间卷积神经网络主要是学习视频图像的静态内容信息,由于与红外图像相对应的光流图像包含了该图运动部分的信息,可以帮助空间网络理解图像中的哪一部分正在运动,因此本模型的空间网络输入为每一小段分割视频中随机抽取的红外图像和对应的光流图像。本文提出的空间卷积神经网络结构图如图 2所示。

    图  2  空间卷积神经网络结构图
    Figure  2.  Structure diagram of spatial convolutional neural network

    图 2可知,尽管输入的红外图像中有较多的人,但是实际发生运动的只有中间2个正在握手的人,因此光流图像中只有这2个人的光流信息比较明显。因此空间网络通过融合红外图像的光流信息可以很好地关注到图像中真正发生运动的部分信息。

    空间卷积神经网络由2条BN-Inception网络组成,上面一条网络的输入为红外图像(t; 224×224×3),下面一条网络的输入为对应的光流图像(t; 224×224×3)。在BN-Inception网络的传输过程中,将光流图像的运动信息与对应位置的灰度图像信息进行融合,从而帮助空间网络去学习红外图像中真正发生动作的内容信息,可表示为

    $$ \hat x_{l + 1}^a = f(x_l^a, w_l^a) + f(x_l^m, w_l^m) $$ (4)

    式中:$x_l^a和x_l^m$分别代表红外图像网络流和光流图像网络流的第l层的输入;wlawlm分别表示各自网络流的学习权重参数;$\hat x_{l + 1}^a$表示红外图像网络流第(l+1)层的输入是由红外图像内容特征和光流图像运动特征融合得到的。本文选取的融合点为BN-Inception网络的3c,4e,5b这3个网络输出节点,从而得到空间卷积神经网络的结果Sspatial

    本实验所使用的硬件及软件配置如表 2所示。网络使用的是Pytorch深度学习框架,在此基础上进行网络训练及学习。

    表  2  实验配置
    Table  2.  Experimental configuration
    项目 CPU 内存 GPU 操作系统 CUDA
    参数 Intel i5-6600 16 GB Nvidia GTX 1070 Ubuntu16.10 CUDA8.0
    下载: 导出CSV 
    | 显示表格

    由于夜视领域的红外人体行为视频数据种类相对较少,并且较少将其应用到实际场景中。事实上,夜视红外视频人体行为识别在保护人身安全的功能上极具潜力,监控视频自动准确地判断出危害到人体行为安全的行为并迅速进行报警的话,将会大幅减小受害人的伤害。

    基于此实际且又重要的安全应用,本文在文献[19]所创建的12类基本红外人体行为数据集的基础上,加入了7个涉及人身安全的人体行为动作以及4个相对应的未涉及人身安全的人体行为动作作为对比。因此,所建立的基于人身安全的红外人体行为数据集共包含23个动作类别,其中训练集共有690个视频,测试集有223个视频,具体类别见表 3所示。

    表  3  基于人身安全的红外人体行为数据集
    Table  3.  Infrared human behavior data set based on personal safety
    类别 拍手 握手 拥抱 慢跑 双脚跳 拳击 单脚跳
    标签 0 1 2 3 4 5 6 7
    类别 走路 单手挥 双手挥 报警 递东西 拿棍棒 摔倒 打架
    标签 8 9 10 11 12 13 14 15
    类别 掐脖子 用棍打 拽头发 下跪 晕倒 抢劫 扇耳光
    标签 16 17 18 19 20 21 22
    下载: 导出CSV 
    | 显示表格

    该数据集是第一个涉及人身安全的红外人体行为数据集,包含12个基本人体行为动作:拍手、握手、拥抱、慢跑、双脚跳、拳击、推、单脚跳、走路、单手挥舞、双手挥舞、打架;包含7个涉及危害到人身安全的红外人体行为动作:用棍棒等武器打人、拽头发、下跪、晕倒不起、抢劫、扇耳光;以及4个相对应的不涉及人身安全,仅作为对比干扰的红外人体行为动作:报警动作、正常地递东西、正常地拿着棍棒等武器、摔倒。

    时间卷积神经网络的输入为n张红外图像所对应的2n张光流图像,因此网络的输入流大小为(224×224×2n)。由于BN-Inception网络的初始输入大小为(224×224×3)。本模型采用以BN-Inception网络的参数作为初始参数进行迁移学习,因此本模型第一层的初始参数为

    $$ {{\hat w}_{i, j, {k_i}}} = {\rm{ }}\frac{{({w_{i, j, {k_1}}} + {w_{i, j, {k_2}}} + {w_{i, j, {k_3}}})}}{{2n}} $$ (5)

    式中:wi, j, k1wi, j, k2wi, j, k3是BN-Inception网络的初始参数;${\hat w_{i,j,{k_i}}}$(i=1, 2, …, 2n-1, 2n)是本模型需要迁移学习时所设置的初始参数值。第1层之后的初始参数保持BN-Inception原网络的参数进行训练学习。

    时间卷积神经网络所采用的学习率大小为0.001,随机失活参数Dropout为0.9,迁移学习的训练轮数为150轮。为了充分地利用多幅光流图像之间的帧间信息,本文分别测试了使用1张、5张和10张光流图像序列作为时间卷积神经网络的输入,实验结果如表 4所示。

    表  4  时间卷积神经网络特征学习结果
    Table  4.  Results of temporal convolutional network feature learning
    时间卷积神经网络输入 正确率/%
    1张光流图像(t; 224×224×2) 75.85
    5张光流图像(t, t+1, t+2, t+3, t+4; 224×224×10) 87.70
    10张光流图像(t, t+1, …, t+8, t+9; 224×224×20) 87.95
    下载: 导出CSV 
    | 显示表格

    表 4可知,由于1张光流图像所能表示的视频运动信息较少,因此当光流图像序列取5张时的效果要明显好于1张光流图像的识别效果。与此同时,当加入过多的光流图像时,时间卷积神经网络并不能非常有效地进一步提高识别效果。因此本模型采用了5张光流图像序列作为时间卷积神经网络的输入。

    空间卷积神经网络与时间卷积神经网络一样,首先将红外视频平均分为K段短视频,然后从每一段短视频中随机抽取相对应的红外图像和光流图像进入空间网络进行学习,最后将K段短视频的识别结果进行融合,从而得到空间卷积神经网络的识别结果。

    由于红外视频的像素值和清晰度低,同时我们并不能确定人体行为动作究竟发生在视频的哪一个时间段内,因此合理地选取K值对实验有较大的影响。同时考虑到本实验所使用的电脑配置,如果K值过大的话,可能导致网络的计算能力大幅度地提升,因此本文考虑了K值为4、8、12、16这4种情况。与此同时,由于K值的增大,网络学习过程中相应的批处理量(batch size)也会一定程度地减少。

    空间网络的输入为每一段分割视频中随机抽取出的红外图像(t; 224×224×3)和与其对应的光流图像(t; 224×224×3),将它们分别输入2条BN-Inception基网络进行迁移学习。由于其输入与原始BN-Inception网络的输入相同,因此本模型的初始参数可以直接采用BN-Inception的原始参数作为训练学习。

    空间网络所采用的学习率大小为0.001,随机失活参数Dropout为0.8,迁移学习的训练轮数为200轮。尽管红外图像能够很好地表达视频中的基本内容,但是对于人体行为动作来说,更应该关注的是红外图像中发生了运动的信息。因此本模型的空间网络采用2条网络流来进行信息融合,其与单独学习红外图像的实验以及K值变化的实验结果如表 5所示。

    表  5  空间卷积神经网络特征学习结果
    Table  5.  Results of spatial convolutional network feature learning
    空间卷积神经网络输入 正确率/%
    红外图像(t; 224×224×3);K=4, batch=12 59.8
    红外图像(t; 224×224×3);K=8, batch=8 68.5
    红外图像(t; 224×224×3);K=12, batch=6 68.3
    红外图像(t; 224×224×3);K=16, batch=4 62.4
    红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=4, batch=12 71.8
    红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=8, batch=8 77.9
    红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=12, batch=6 81.0
    红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=16, batch=4 75.8
    下载: 导出CSV 
    | 显示表格

    由于视频分割的次数越多,模型就越不容易丢失掉视频中动作发生时的图像。由表 5可知,无论是采用单独识别红外图像还是使用本模型的方法,随着视频分割数K值的增大,识别的正确率都出现了一定的增长。同时,由于受实验电脑配置的原因,随着K值的增大,批处理量(batch size)的减少使得模型的过拟合现象可能加重。因此当K值到达16之后,正确率开始出现了一定程度的下降。因此本文所使用的分割数K值为12。

    由于本模型将红外图像对应的运动信息融合进网络进行学习,可以了解到红外图像中究竟哪些是静止的信息,哪些是动态的信息,从而可以帮助网络更准确地对动作进行分类。由表 5可知,本模型比单纯地识别红外图像的准确率提高了近13%。

    本文所提出的时空双流卷积神经网络的输出结果是由空间卷积神经网络和时间卷积神经网络的结果进行加权求和得到。本实验所使用的空间网络结果(81.0%)和时间网络结果(87.7%)的权值比为1:1,因此最终得到的识别正确率为92.0%。

    图 3为本模型在本文所建立的基于人体行为安全的红外行为数据集上的每一类动作的识别准确率。

    图  3  数据集的每一类动作的识别正确率
    Figure  3.  Accuracy of recognition for each type of data set

    图 3可知,本模型在具有实际应用的基于人身安全的红外数据集上取得了非常准确的效果,其中效果最差的是行走这一个类别,由于其他视频片段中,一般都包含行走这一个简单动作,因此其正确率最低,但是其正确率也达到了70%。充分地说明了本模型无论是针对极具相似性的简单动作,还是针对实际中可能危害到人体行为的复杂动作都能做出较高的准确判断。

    本文跟目前研究文献里的对比实验结果如表 6所示。由表 6可知,本文所提出的时空双流卷积神经网络模型相对于传统的最好的密集轨迹算法[9]以及目前的最优算法TSN(temporal segment networks)[16]都有着不同程度的提升,充分地说明了本算法可以更高效地识别出红外视频人体行为。同时采用的神经网络结构不仅可以省去大量的手工特征计算,而且可以大幅度地缩短识别时间。本文提出的算法不仅可以准确地识别极具相似性的人体简单动作,也可以在涉及人身安全等实际人体行为识别的场景中有较为准确的识别,从而可以通过视频监控分析采取措施,以减少对人身安全的伤害行为。

    表  6  对比实验结果
    Table  6.  Comparison experiment results
    算法 正确率/%
    密集轨迹算法[9] 69.8
    自适应融合算法[18] 72.5
    传统双流网络[14] 86.4
    时序分段网络[15] 90.5
    本文算法 92.0
    下载: 导出CSV 
    | 显示表格

    本文提出了一种基于时空双流卷积神经网络的红外人体行为识别方法,该方法解决了传统双流模型难以处理较长视频以及未充分考虑视频信息和光流信息之间关系的这2个问题。通过对视频进行平均分段并随机抽取视频图像序列的方法,使得模型可以有效地利用较长视频的所有信息。同时通过在空间卷积网络中融合了对应红外图像的光流信息,使得空间卷积神经网络可以更好地理解图像中真正发生运动的信息。实验结果表明,本文比现有的最优识别结果依然能提高1.5%。在接下来的工作中,我们将考虑如何使双流网络真正融合为一个网络,使空间信息和时间信息能够在网络训练的时候就能够有效地融合,从而进一步提高红外视频的人体行为识别准确率。

  • 图  1   2 μm粒子不同角度下Mie散射光谱数据

    Figure  1.   Mie scattering spectra data of 2 μmparticles at different angles

    图  2   散射角为15°时的光谱曲线

    Figure  2.   Spectra data at scattering angle of 15°

    图  3   2 μm粒子的引导数据

    Figure  3.   Guided specta data of 2 μm particles

    图  4   不同滤波核窗口尺度下的滤波数据

    Figure  4.   Spectra data after filtering under different filter kernel sizes

    图  5   不同步长下的滤波数据

    Figure  5.   Filtered data under different steps

    图  6   散射角为15°时的滤波数据

    Figure  6.   Filtered data at 15°

    图  7   散射角为60°时的滤波数据

    Figure  7.   Filtered data at 60°

    图  8   散射角为90°时的滤波数据

    Figure  8.   Filtered data at 90°

    图  9   小波滤波修正后的引导数据

    Figure  9.   Guided data corrected by wavelet filter

    图  10   散射角为15°时的小波-引导滤波数据

    Figure  10.   Wavelet-guided filtered data at 15°

    图  11   散射角为60°时的小波-引导滤波数据

    Figure  11.   Wavelet-guided filtered data at 60°

    图  12   散射角为90°时的小波-引导滤波数据

    Figure  12.   Wavelet-guided filtered data at 90°

    图  13   2 μm粒子不同角度的引导滤波光谱数据

    Figure  13.   Guided filtering spectra data of 2 μmparticles at different angles

    图  14   2 μm粒子不同角度的小波-引导滤波光谱数据

    Figure  14.   Wavelet-guided scattering spectra data of 2 μm particles at different angles

    图  15   5 μm粒子不同角度米散射光谱数据

    Figure  15.   Mie scattering spectra data of 5 μmparticles at different angles

    图  16   5 μm粒子不同角度的引导滤波光谱数据

    Figure  16.   Guided filtering spectra data of 5 μmparticles at different angles

    图  17   5 μm粒子不同角度的小波-引导滤波光谱数据

    Figure  17.   Wavelet-guided filtering spectra data of 5 μm particles at different angles

    图  18   8 μm粒子不同角度的米散射光谱数据

    Figure  18.   Mie scattering spectra data of 8 μmparticles at different angles

    图  19   8 μm粒子不同角度的引导滤波光谱数据

    Figure  19.   Guided filtering spectra data of 8 μm particles at different angles

    图  20   8 μm粒子不同角度的小波-引导滤波光谱数据

    Figure  20.   Wavelet-guided filtering spectra data of 8 μm particles at different angles

    表  1   三种滤波方法反演的浓度比

    Table  1   Concentration ratio inverted by 3 filtering methods

    滤波方法 15°浓度比例 60°浓度比例 90°浓度比例
    小波 1.07:1.74:0.71 1.18:1.73:0.84 0.65:1.15:0.45
    引导 0.97:1.47:0.74 0.80:1.22:0.65 0.76:1.19:0.61
    小波-引导 0.98:1.48:0.75 0.81:1.23:0.66 0.77:1.20:0.62
    下载: 导出CSV

    表  2   反演浓度的相对误差

    Table  2   Relative error of inversion concentration

    滤波方法 15°相对误差/% 60°相对误差/% 90°相对误差/%
    小波 7 74 -29 18 73 -16 -35 15 -55
    引导 -3 47 -26 -20 22 -35 -24 19 -39
    小波-引导 -2 48 -25 -19 23 -34 -23 20 -38
    下载: 导出CSV
  • [1]

    Nodes T, Gallagher N C.Median filters: some modifications and their properties[J].IEEE Transactions on Acoustics Speech and Signal Processing, 1982, 30(5):739-746. doi: 10.1109/TASSP.1982.1163951

    [2]

    Ito K, Xiong K.Gaussian filters for nonlinear filtering problems[J].IEEE Transactions on Automatic Control, 2000, 45(5):910-927. doi: 10.1109/9.855552

    [3]

    Zhang B, Allebach J P.Adaptive bilateral filter for sharpness enhancement and noise removal[J].IEEE Transactions on Image Processing, 2008, 7(5):664-678. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=17422170a42e4b0fab2a3af40e93a2d5

    [4]

    Cheng Hailin, Sun Jie, Ma Ranran, et al.Noise reducing filter design for the spectra data processing[J].Journal of Tianjin University of Technology, 2012, 28(1):45-50. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=tjlgxyxb201201011

    [5] 肖锦荣.悬浮颗粒物粒径分布光学测量及反演方法研究[D].南京: 南京信息工程大学, 2016.

    Xiao Jinrong.Study on optical measurement and inversion method for particle size distribution of suspended particles[D].Nanjing: Nanjing University of Information Science & Technology, 2016.

    [6]

    Daniilidis K, Maragos P, Paragios N, et al.ECCV 2010, Part Ⅰ, LNCS 6311[C].Berlin : Springer-Verlag, 2010.

    [7] 钱小燕.引导滤波的红外图像预处理算法[J].科学技术与工程, 2015, 15(21):32-37. doi: 10.3969/j.issn.1671-1815.2015.21.007

    Qian Xiaoyan.Infrared preprocessing method based on guided image filtering[J].Science Technology and Engineering, 2015, 15(21):32-37. doi: 10.3969/j.issn.1671-1815.2015.21.007

    [8] 龙鹏, 鲁华祥.LOG边缘算子改进的加权引导滤波算法[J].计算机应用, 2015, 35(9): 2661-2665. http://d.old.wanfangdata.com.cn/Periodical/jsjyy201509049

    Long Peng, Lu Huaxiang.Weighted guided image filtering algorithm using Laplacian-of-Gaussian edge detector[J].Journal of Computer Applications, 2015, 35(9): 2661-2665. http://d.old.wanfangdata.com.cn/Periodical/jsjyy201509049

    [9] 王卫星, 肖翔, 陈良琴.结合最小滤波和引导滤波的暗原色去雾[J].光学精密工程, 2015, 23(7): 2100-2108. http://d.old.wanfangdata.com.cn/Periodical/gxjmgc201507037

    Wang Weixing, Xiao Xiang, Chen Liangqin.Image dark channel prior haze removal based on minimum filtering and guided filtering[J].Optics and Precision Engineering, 2015, 23(7): 2100-2108. http://d.old.wanfangdata.com.cn/Periodical/gxjmgc201507037

    [10] 方华猛, 易本顺, 赵继勇.基于主成分分析和引导滤波的色调映射算法[J].光电子·激光, 2014, 25(12): 2423-2429 http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=gdzjg201412026

    Fang Huameng, Yi Benshun, Zhao Jiyong.A tone mapping algorithm based on PCA and guided filter[J].Journal of Optoelectronics · Laser, 2014, 25(12): 2423-2429. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=gdzjg201412026

    [11] 王峰.图像引导滤波器在单幅图像复原中的应用[D].合肥: 合肥工业大学, 2012.

    Wang Feng.The application of guided image filter in single image restoration[D].Hefei: HeFei University of Technology, 2012.

    [12] 王新磊, 何凯, 王晓文.引导滤波算法的CUDA加速实现[J].吉林大学学报:信息科学版, 2016, 34(1): 104-110. http://d.old.wanfangdata.com.cn/Periodical/ccydxyxb201601017

    Wang Xinlei, He Kai, Wang Xiaowen.Speed-up implementation of guided filtering approach based on CUDA[J].Journal of Jilin University:Information Science Edition, 2016, 34(1): 104-110. http://d.old.wanfangdata.com.cn/Periodical/ccydxyxb201601017

    [13] 曹丽霞, 赵军, 孔明.基于改进的Chahine迭代算法的粒径分布反演[J].红外与激光工程, 2015, 44(9): 2837-2843. doi: 10.3969/j.issn.1007-2276.2015.09.051

    Cao Lixia, Zhao Jun, Kong Ming, et al.Inversion of particle size distribution based on improved Chahine algorithm[J].Infrared and Laser Engineering, 2015, 44(9): 2837-2843. doi: 10.3969/j.issn.1007-2276.2015.09.051

  • 期刊类型引用(1)

    1. 付健,赵建辉,李帆,张馗. 基于水幕的舰船红外干扰策略研究. 应用光学. 2021(03): 404-412 . 本站查看

    其他类型引用(0)

图(20)  /  表(2)
计量
  • 文章访问数:  1033
  • HTML全文浏览量:  211
  • PDF下载量:  142
  • 被引次数: 1
出版历程
  • 收稿日期:  2017-04-20
  • 修回日期:  2017-08-21
  • 刊出日期:  2017-10-31

目录

/

返回文章
返回