Design of dual-band common aperture camera optical system
-
摘要: 双波段共孔径相机可兼顾近红外和可见光两者优势,即能保证丰富色彩信息的获取,也可充分利用近红外探测较好的穿雾和高灵敏度弱光探测能力。设计了工作波段为450 nm~650 nm和750 nm~900 nm的双波段共孔径相机,其视场角为35°×20°,F数为1.5,采用全球面复杂化双高斯结构。设计结果表明:MTF>0.4(@50 lp /mm),系统弥散斑 < 10 μm,畸变 < 3%,可满足指标要求。Abstract: Dual-band common aperture camera can take into account advantages of both near infrared and visible light. It not only ensures rich color information access, but also can take full advantage of better through fog and high sensitivity low light detection capability of near infrared detection. Dual-band common aperture camera with working band of 450 nm ~ 650 nm and 750 nm ~ 900 nm is designed, with field angle of 35°× 20°, F number 1.5, and globally complex double-Gaussian structure used. Results show that MTF is more than> 0.4 at 50 lp/mm, system diffuse spot is less than 10 μm, and distortion is less than 3%.
-
引言
随着视频人体行为识别(human action recognition)在视频安防监控、人体姿态识别、视频检索和人机交互等领域展现的巨大潜力,越来越多的机器视觉研究工作者开始重视如何使计算机自动准确地理解视频人体行为这一问题。
目前,对视频人体行为识别的研究方法大致可以分为两类。第1类是将视频图像的全局或局部特征输入到支持向量机或随机树等分类器中进行动作分类。传统的局部特征主要有:人体空域行为特性的方向梯度直方图(histogram of oriented gradient, HOG)和人体时域行为特性的光流方向直方图[1](histogram of oriented gradient, HOF)、时空兴趣点描述子[2](spatial-time interest point, STIP)、运动边界描述子[3](motion boundary histogram, MBH)及其在三维方向上的扩展,如HOG3D[4]、SIFT3D[5]等。全局特征主要有:人体骨架特征[6-7],包含运动位置信息的运动能量图(motion energy images, MEI)和包含运动位置以及时间信息的运动历史图[8](motion history images, MHI)。最近提出的密集轨迹描述子[9](improved dense trajectories, IDT)由于融合了HOG、HOF、MBH以及特征编码等方法,目前在手工提取特征的算法中效果最为显著。第2类方法是使用最近在目标识别、场景分类等领域具有显著效果的卷积神经网络[10-12]。Tran[13-14]等在网络中使用3D卷积层来直接学习视频的时间和空间信息,再通过全连接层后对动作进行分类。Simonyan[15]等将视频提取为包含空间信息的彩色图像以及包含帧间信息的光流图像后,分别输入2个使用2D卷积层的网络后,再将结果加权求和,也取得了显著的提升效果。Wang[16]等在双流网络的基础上,采用了分段结构,从而解决了视频长度对双流网络分类的影响。Feichtenhofer[17]等人尝试将彩色图像和光流图像在双流网络的中部开始交叉影响,而不是在分类的最后才进行融合。Diba[18]等充分考虑了图像的帧间联系,将各条网络输出的图像结果用双线性特征编码的方式进行分类。
近年对人体行为识别的研究主要集中在可见光领域,对夜视领域的研究相对较少。而很多涉及到人身安全的人体行为动作往往发生在夜晚及黑暗无光的地方,因此,针对夜视情况下基于红外热成像的人体行为识别具有重要意义。
由于红外人体行为识别的研究极少,因此该类数据集的行为种类不够丰富。目前仅有文献[19]中使用的含12种基本红外行为动作的数据集。针对此问题,本文首先构建了含23种红外行为动作类别的数据集,然后实现了基于双流卷积神经网络的红外人体行为识别模型。本模型的输入分别是包含视频空间内容及位置信息的红外图像,以及包含视频时间变化信息的红外光流图像。但该模型与目前文献中的双流网络不同。首先针对传统双流网络较难识别长视频的问题,本模型首先将视频平均分为若干段,然后将每一小段视频中抽取的红外图像和其对应的光流图像输入空间卷积神经网络,之后将每一小段的结果进行融合得到空间网络结果。同时将每一小段视频中抽取的光流图像序列输入时间卷积神经网络,融合每一小段的结果后得到时间网络结果。最后再将两条网络流的结果进行加权求和得到视频行为分类结果,从而充分地利用了整个视频的信息并解决了视频的长短不一问题。其次,空间卷积神经网络所要学习的特征应该是红外图像中发生了运动的那部分信息,为了使空间网络可以更好地关注这部分信息,本模型所构建的空间卷积神经网络由2条网络流组成,将红外图像和对应的光流图像分别作为2条网络流的输入,在学习红外图像空间信息的同时,融合了对应的光流信息特征,这比单纯地识别红外图像的正确率要高。
1 时空双流卷积神经网络
由于从红外视频中抽取的红外图像包含视频图像的空间静态内容信息和位置信息,有助于了解视频的基本内容;光流图像则包含视频帧间动态变化信息,提供了视频随时间产生的变化信息。因此,本文构建了一个时空双流卷积神经网络,该网络包含2条网络流,分别学习红外视频的空间信息和时间信息,最后再将2条网络流的结果进行加权求和,从而得到对整个红外视频的人体行为分类。
1.1 双流卷积神经网络
由于视频片段的长短不同,因而类似文献[14]所采用的截取部分视频片段输入到网络中的方法,很容易因为未恰好截取到行为动作的视频或者视频中包含了部分其他动作而导致网络结构的错误判断。同时,文献[15]则充分对视频采取了密集采样的方式,导致网络学习的视频信息大幅度增多。事实上,视频中紧邻的图像帧间变化相对极小,因此本文所采用的网络结构,首先对视频进行稀疏采样,即首先将视频平均分为若干段,然后再将若干段视频通过网络后的结果进行融合,既可以充分地利用到整个视频信息,又能有效地降低需要学习的视频信息量。本文所采用的时空双流卷积神经网络结构图如图 1所示。
图 1中,本文首先将输入的红外视频平均分为K段,可以得到K个长度相同的片段(V1, V2, …, VK), 空间卷积网络的结果Sspatial可以表示为
$$ {S_{{\rm{spatial}}}} = G(f({t_1};W), f({t_2};W), \ldots , f({t_k};W)) $$ (1) 式中:t1是从V1中随机抽取的灰度图像和与其对应的光流图像,相应地(t1, t2, …, tK)为从(V1, V2, …, VK)中随机抽取的图像序列;W为空间卷积网络中对应的网络结构参数,通过调整W的值来不断学习视频空间特征;f(tk; W)则代表第K段视频的空间网络输出结果;G函数则是将所有通过空间卷积神经网络后的结果进行融合,本文所采取的融合方式为平均值融合,即将每一段的结果f(tk; W)求和之后取其平均值,从而得到空间卷积网络的结果。时间卷积网络的结果Stemporal也可以同理得到:
$$ {S_{{\rm{temporal}}}} = G(f({t_1};W), f({t_2};W), \ldots , f({t_k};W)) $$ (2) 最后的视频分类结果Slabels则由Sspatial和Stemporal通过加权求和的方式得到。其中k1和k2的取值为正整数,具体数值是使Slabels值为最大值的组合,即:
$$ {S_{{\rm{labels}}}} = {k_1}\;\cdot\;{S_{{\rm{spatial}}}} + {k_2}\;\cdot\;{S_{{\rm{temporal}}}}{\rm{}} $$ (3) 1.2 时间卷积神经网络
时间卷积神经网络的输入是包含红外视频动态变化信息的光流图像。本文通过光流提取算法[20]提取出对应的关于横轴和纵轴2个方向的光流图像,因此一帧视频图像将有2张相应的光流图像。由于深度卷积神经网络[21-22]目前在机器视觉中取得了较为显著的效果,因此本文的时间卷积神经网络的基础网络使用了深度卷积网络BN-Inception[21]。BN-Inception网络的详细配置如表 1所示。
表 1 BN-Inception网络结构的参数配置Table 1. Parameter configuration of BN-Inception network structure网络层 窗口大小/滑动步长 输出特征图大小 深度 #1×1 单层#1×1 单层#3×3 双层#1×1 双层#3×3 池化+卷积 卷积层1 7×7/2 112×112×64 1 池化层1 3×3/2 56×56×64 0 卷积层2 3×3/1 56×56×192 1 64 192 池化层2 3×3/2 28×28×192 0 Inception(3a) 28×28×256×3 3 64 64 64 64 96 Avg+32 Inception(3b) 28×28×320 3 64 64 96 64 96 Avg+64 Inception(3c) stride 2 28×28×576 3 0 128 160 64 96 Max+pass through Inception(4a) 14×14×576 3 224 64 96 96 128 Avg+128 Inception(4b) 14×14×576 3 192 96 128 96 128 Avg+128 Inception(4c) 14×14×576 3 160 128 160 128 160 Avg+128 Inception(4d) 14×14×576 3 96 128 192 160 192 Avg+128 Inception(4e) Stride 2 14×14×1 024 3 0 128 192 192 256 Max+pass through Inception(5a) 7×7×1 024 3 352 192 320 160 224 Avg+128 Inception(5b) 7×7×1 024 3 352 192 320 192 224 Max+128 池化层3 7×7/1 1×1×1 024 0 时间卷积神经网络由1条BN-Inception网络组成,本文以BN-Inception网络识别彩色图像的参数作为初始参数进行训练,输入为每一小段视频随机截取的n张红外图像所对应的光流图像序列。由于每一张红外图像有对应的横轴和纵轴2个方向的光流图像,因此输入光流图像序列的长度为2n。时间卷积神经网络通过对连续的2n张包含视频动作变化信息的光流图像进行学习,从而得到时间卷积网络的结果Stemporal。
1.3 空间卷积神经网络
空间卷积神经网络主要是学习视频图像的静态内容信息,由于与红外图像相对应的光流图像包含了该图运动部分的信息,可以帮助空间网络理解图像中的哪一部分正在运动,因此本模型的空间网络输入为每一小段分割视频中随机抽取的红外图像和对应的光流图像。本文提出的空间卷积神经网络结构图如图 2所示。
由图 2可知,尽管输入的红外图像中有较多的人,但是实际发生运动的只有中间2个正在握手的人,因此光流图像中只有这2个人的光流信息比较明显。因此空间网络通过融合红外图像的光流信息可以很好地关注到图像中真正发生运动的部分信息。
空间卷积神经网络由2条BN-Inception网络组成,上面一条网络的输入为红外图像(t; 224×224×3),下面一条网络的输入为对应的光流图像(t; 224×224×3)。在BN-Inception网络的传输过程中,将光流图像的运动信息与对应位置的灰度图像信息进行融合,从而帮助空间网络去学习红外图像中真正发生动作的内容信息,可表示为
$$ \hat x_{l + 1}^a = f(x_l^a, w_l^a) + f(x_l^m, w_l^m) $$ (4) 式中:$x_l^a和x_l^m$分别代表红外图像网络流和光流图像网络流的第l层的输入;wla和wlm分别表示各自网络流的学习权重参数;$\hat x_{l + 1}^a$表示红外图像网络流第(l+1)层的输入是由红外图像内容特征和光流图像运动特征融合得到的。本文选取的融合点为BN-Inception网络的3c,4e,5b这3个网络输出节点,从而得到空间卷积神经网络的结果Sspatial。
2 实验及结果分析
2.1 实验配置
本实验所使用的硬件及软件配置如表 2所示。网络使用的是Pytorch深度学习框架,在此基础上进行网络训练及学习。
表 2 实验配置Table 2. Experimental configuration项目 CPU 内存 GPU 操作系统 CUDA 参数 Intel i5-6600 16 GB Nvidia GTX 1070 Ubuntu16.10 CUDA8.0 2.2 实验数据
由于夜视领域的红外人体行为视频数据种类相对较少,并且较少将其应用到实际场景中。事实上,夜视红外视频人体行为识别在保护人身安全的功能上极具潜力,监控视频自动准确地判断出危害到人体行为安全的行为并迅速进行报警的话,将会大幅减小受害人的伤害。
基于此实际且又重要的安全应用,本文在文献[19]所创建的12类基本红外人体行为数据集的基础上,加入了7个涉及人身安全的人体行为动作以及4个相对应的未涉及人身安全的人体行为动作作为对比。因此,所建立的基于人身安全的红外人体行为数据集共包含23个动作类别,其中训练集共有690个视频,测试集有223个视频,具体类别见表 3所示。
表 3 基于人身安全的红外人体行为数据集Table 3. Infrared human behavior data set based on personal safety类别 拍手 握手 拥抱 慢跑 双脚跳 拳击 推 单脚跳 标签 0 1 2 3 4 5 6 7 类别 走路 单手挥 双手挥 报警 递东西 拿棍棒 摔倒 打架 标签 8 9 10 11 12 13 14 15 类别 掐脖子 用棍打 拽头发 下跪 晕倒 抢劫 扇耳光 标签 16 17 18 19 20 21 22 该数据集是第一个涉及人身安全的红外人体行为数据集,包含12个基本人体行为动作:拍手、握手、拥抱、慢跑、双脚跳、拳击、推、单脚跳、走路、单手挥舞、双手挥舞、打架;包含7个涉及危害到人身安全的红外人体行为动作:用棍棒等武器打人、拽头发、下跪、晕倒不起、抢劫、扇耳光;以及4个相对应的不涉及人身安全,仅作为对比干扰的红外人体行为动作:报警动作、正常地递东西、正常地拿着棍棒等武器、摔倒。
2.3 时间卷积神经网络实验
时间卷积神经网络的输入为n张红外图像所对应的2n张光流图像,因此网络的输入流大小为(224×224×2n)。由于BN-Inception网络的初始输入大小为(224×224×3)。本模型采用以BN-Inception网络的参数作为初始参数进行迁移学习,因此本模型第一层的初始参数为
$$ {{\hat w}_{i, j, {k_i}}} = {\rm{ }}\frac{{({w_{i, j, {k_1}}} + {w_{i, j, {k_2}}} + {w_{i, j, {k_3}}})}}{{2n}} $$ (5) 式中:wi, j, k1、wi, j, k2和wi, j, k3是BN-Inception网络的初始参数;${\hat w_{i,j,{k_i}}}$(i=1, 2, …, 2n-1, 2n)是本模型需要迁移学习时所设置的初始参数值。第1层之后的初始参数保持BN-Inception原网络的参数进行训练学习。
时间卷积神经网络所采用的学习率大小为0.001,随机失活参数Dropout为0.9,迁移学习的训练轮数为150轮。为了充分地利用多幅光流图像之间的帧间信息,本文分别测试了使用1张、5张和10张光流图像序列作为时间卷积神经网络的输入,实验结果如表 4所示。
表 4 时间卷积神经网络特征学习结果Table 4. Results of temporal convolutional network feature learning时间卷积神经网络输入 正确率/% 1张光流图像(t; 224×224×2) 75.85 5张光流图像(t, t+1, t+2, t+3, t+4; 224×224×10) 87.70 10张光流图像(t, t+1, …, t+8, t+9; 224×224×20) 87.95 由表 4可知,由于1张光流图像所能表示的视频运动信息较少,因此当光流图像序列取5张时的效果要明显好于1张光流图像的识别效果。与此同时,当加入过多的光流图像时,时间卷积神经网络并不能非常有效地进一步提高识别效果。因此本模型采用了5张光流图像序列作为时间卷积神经网络的输入。
2.4 空间卷积神经网络实验
空间卷积神经网络与时间卷积神经网络一样,首先将红外视频平均分为K段短视频,然后从每一段短视频中随机抽取相对应的红外图像和光流图像进入空间网络进行学习,最后将K段短视频的识别结果进行融合,从而得到空间卷积神经网络的识别结果。
由于红外视频的像素值和清晰度低,同时我们并不能确定人体行为动作究竟发生在视频的哪一个时间段内,因此合理地选取K值对实验有较大的影响。同时考虑到本实验所使用的电脑配置,如果K值过大的话,可能导致网络的计算能力大幅度地提升,因此本文考虑了K值为4、8、12、16这4种情况。与此同时,由于K值的增大,网络学习过程中相应的批处理量(batch size)也会一定程度地减少。
空间网络的输入为每一段分割视频中随机抽取出的红外图像(t; 224×224×3)和与其对应的光流图像(t; 224×224×3),将它们分别输入2条BN-Inception基网络进行迁移学习。由于其输入与原始BN-Inception网络的输入相同,因此本模型的初始参数可以直接采用BN-Inception的原始参数作为训练学习。
空间网络所采用的学习率大小为0.001,随机失活参数Dropout为0.8,迁移学习的训练轮数为200轮。尽管红外图像能够很好地表达视频中的基本内容,但是对于人体行为动作来说,更应该关注的是红外图像中发生了运动的信息。因此本模型的空间网络采用2条网络流来进行信息融合,其与单独学习红外图像的实验以及K值变化的实验结果如表 5所示。
表 5 空间卷积神经网络特征学习结果Table 5. Results of spatial convolutional network feature learning空间卷积神经网络输入 正确率/% 红外图像(t; 224×224×3);K=4, batch=12 59.8 红外图像(t; 224×224×3);K=8, batch=8 68.5 红外图像(t; 224×224×3);K=12, batch=6 68.3 红外图像(t; 224×224×3);K=16, batch=4 62.4 红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=4, batch=12 71.8 红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=8, batch=8 77.9 红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=12, batch=6 81.0 红外图像(t; 224×224×3)和光流图像(t; 224×224×3);K=16, batch=4 75.8 由于视频分割的次数越多,模型就越不容易丢失掉视频中动作发生时的图像。由表 5可知,无论是采用单独识别红外图像还是使用本模型的方法,随着视频分割数K值的增大,识别的正确率都出现了一定的增长。同时,由于受实验电脑配置的原因,随着K值的增大,批处理量(batch size)的减少使得模型的过拟合现象可能加重。因此当K值到达16之后,正确率开始出现了一定程度的下降。因此本文所使用的分割数K值为12。
由于本模型将红外图像对应的运动信息融合进网络进行学习,可以了解到红外图像中究竟哪些是静止的信息,哪些是动态的信息,从而可以帮助网络更准确地对动作进行分类。由表 5可知,本模型比单纯地识别红外图像的准确率提高了近13%。
2.5 双流卷积神经网络实验
本文所提出的时空双流卷积神经网络的输出结果是由空间卷积神经网络和时间卷积神经网络的结果进行加权求和得到。本实验所使用的空间网络结果(81.0%)和时间网络结果(87.7%)的权值比为1:1,因此最终得到的识别正确率为92.0%。
图 3为本模型在本文所建立的基于人体行为安全的红外行为数据集上的每一类动作的识别准确率。
由图 3可知,本模型在具有实际应用的基于人身安全的红外数据集上取得了非常准确的效果,其中效果最差的是行走这一个类别,由于其他视频片段中,一般都包含行走这一个简单动作,因此其正确率最低,但是其正确率也达到了70%。充分地说明了本模型无论是针对极具相似性的简单动作,还是针对实际中可能危害到人体行为的复杂动作都能做出较高的准确判断。
本文跟目前研究文献里的对比实验结果如表 6所示。由表 6可知,本文所提出的时空双流卷积神经网络模型相对于传统的最好的密集轨迹算法[9]以及目前的最优算法TSN(temporal segment networks)[16]都有着不同程度的提升,充分地说明了本算法可以更高效地识别出红外视频人体行为。同时采用的神经网络结构不仅可以省去大量的手工特征计算,而且可以大幅度地缩短识别时间。本文提出的算法不仅可以准确地识别极具相似性的人体简单动作,也可以在涉及人身安全等实际人体行为识别的场景中有较为准确的识别,从而可以通过视频监控分析采取措施,以减少对人身安全的伤害行为。
3 结论
本文提出了一种基于时空双流卷积神经网络的红外人体行为识别方法,该方法解决了传统双流模型难以处理较长视频以及未充分考虑视频信息和光流信息之间关系的这2个问题。通过对视频进行平均分段并随机抽取视频图像序列的方法,使得模型可以有效地利用较长视频的所有信息。同时通过在空间卷积网络中融合了对应红外图像的光流信息,使得空间卷积神经网络可以更好地理解图像中真正发生运动的信息。实验结果表明,本文比现有的最优识别结果依然能提高1.5%。在接下来的工作中,我们将考虑如何使双流网络真正融合为一个网络,使空间信息和时间信息能够在网络训练的时候就能够有效地融合,从而进一步提高红外视频的人体行为识别准确率。
-
[1] 曲锐, 邓键, 彭晓乐, 等. 0.4 μm ~1.7 μm宽波段大相对孔径光学系统设计[J].光学学报, 2015, 25(8):0822007-1-0822007-6. http://www.cnki.com.cn/Article/CJFDTotal-GXXB201508041.htm Qu Rui, Deng Jian, Peng Xiaole, et al. 0.4 μm ~1.7 μm wideband fast F-number optical system design[J]. Acta Optica Sinica, 2015, 25(8) :0822007-1-0822007-6. http://www.cnki.com.cn/Article/CJFDTotal-GXXB201508041.htm
[2] 姚罡, 汤天瑾, 黄颖.大视场大相对孔径近红外观测相机光学系统设计[J].红外与激光工程, 2013, 42(S1):107-110. http://d.old.wanfangdata.com.cn/Periodical/hwyjggc2013z1022 Yao Gang, Tang Tianjin, Huang Ying. Optical system design used for the near infrared remote sensing with large field of view and small F number[J]. Infrared and Laser Engineering, 2013, 42(S1):107-110. http://d.old.wanfangdata.com.cn/Periodical/hwyjggc2013z1022
[3] 孙艳六, 张国玉, 孙向阳, 等.宽光谱大相对孔径星敏感器光学系统设计[J].红外与激光工程, 2009, 38 (Sup.):142-145. http://cpfd.cnki.com.cn/Article/CPFDTOTAL-ZYHG200911002036.htm Sun Yanliu, Zhang Guoyu, Sun Xiangyang, et al. Optical system design of star tracker with large relative aperture and wide spectral range[J]. Infrared and Laser Engineering, 2009, 38 (Sup.):142-145. http://cpfd.cnki.com.cn/Article/CPFDTOTAL-ZYHG200911002036.htm
[4] 郭晟男, 付跃刚, 刘智颖, 等.双色红外共孔径消热差光学系统设计[J].应用光学, 2013, 34(6):1019-1024. http://d.old.wanfangdata.com.cn/Periodical/yygx201306026 Guo Shengnan, Fu Yuegang, Liu Zhiying, et al.Athermal design of two-color infrared common aperture optical system[J]. Journal of Applied Optics, 2013, 34(6):1019-1024. http://d.old.wanfangdata.com.cn/Periodical/yygx201306026
[5] 汤天瑾, 李岩.红外相机共孔径双波段成像光学系统[J].应用光学, 2015, 36(5):14-518 http://d.old.wanfangdata.com.cn/Periodical/yygx201504004 Tang Tianjin, Li Yan. Dual-band common aperture optical system for infrared camera[J]. Journal of Applied Optics, 2015, 36(5):514-518. http://d.old.wanfangdata.com.cn/Periodical/yygx201504004
[6] 汤天瑾.无热化大相对孔径星敏感器光学系统设计[J].航天返回与遥感, 2011, 32(3):36-42. doi: 10.3969/j.issn.1009-8518.2011.03.006 Tang Tianjin. Optical system design of light star tracker with low F-number[J], Spacecraft Recovery & Remote Sensing, 2011, 32(3):36-42. doi: 10.3969/j.issn.1009-8518.2011.03.006
[7] 江伦, 黄玮, 许伟才.周视监控全景镜头设计[J].应用光学, 2012, 33(1):1-4. doi: 10.3969/j.issn.2095-1531.2012.01.001 Jiang Lun, Huang Wei, Xu Wei-cai. Panoramic lens for full view monitoring[J]. Journal of Applied Optics, 2012, 33(1):1-4. doi: 10.3969/j.issn.2095-1531.2012.01.001
[8] 李江南.双光谱相机设计与实现[J].船舶电子工程, 2013, 33(6):153-155. http://d.old.wanfangdata.com.cn/Periodical/jcdzgc201306052 Li Jiangnan, Design and implementation of multispectral camera[J]. Ship Electronic Engineering, 2013, 33(6): 153-155. http://d.old.wanfangdata.com.cn/Periodical/jcdzgc201306052
[9] 王峰, 杨波, 胡存明, 等, 小行星探测用双谱段相机设计[J].深空探测学报, 2015, 2(2):174-178. http://d.old.wanfangdata.com.cn/Periodical/sktcxb201502012 Wang Feng, Yang Bo, Hu Cunming, et al. Double spectrum camera designed for asteroid detecting[J]. Journal of Deep Space Exploration, 2015, 2(2):174-178. http://d.old.wanfangdata.com.cn/Periodical/sktcxb201502012
[10] 王灵杰, 张新, 张建萍, 等.自由曲面空间光学系统设计研究[J].应用光学, 2012, 33(6):1040-1046. http://d.old.wanfangdata.com.cn/Periodical/yygx201206007 Wang Lingjie, Zhang Xin, Zhang Jianping, et al. Free-form surface space optical system[J]. Journal of Applied Optics, 2012, 33(6): 1040-1046. http://d.old.wanfangdata.com.cn/Periodical/yygx201206007
-
期刊类型引用(1)
1. 付健,赵建辉,李帆,张馗. 基于水幕的舰船红外干扰策略研究. 应用光学. 2021(03): 404-412 . 本站查看
其他类型引用(0)