Design and implementation of photoelectric acquisition application verification platform
-
摘要:
为了提高当前应用于航空遥感试验场景的半实物仿真能力,解决现阶段逼真度不足、精度低的问题,设计并实现了一个微缩实物模型上光电仿真探测识别技术平台,通过构建微缩沙盘模型实现应用场景再现,基于桁架机器人搭载飞行仿真转台实现遥感数据采集与处理。试验结果表明:设计的半实物仿真平台可通过获取多种光电传感器数据模拟遥感测试数据,激光雷达获取目标方位与距离信息进行三维重建,可见光相机与红外相机获取目标二维图像信息进行探测与识别。通过演示验证,半实物仿真平台可为航空遥感试验提供有效支撑。
Abstract:In order to improve the capability of semi-physical simulation applied to the aerial remote sensing test scenes, the problems of insufficient fidelity and low precision were solved. An optoelectronic simulation detection and recognition technology platform based on miniature physical model was designed and implemented. Application scenarios were reproduced by constructing a miniature sand table model, and the remote sensing data acquisition and processing were realized based on the flight simulation turntable equipped with a truss robot. The experimental results show that the designed semi-physical simulation platform can simulate remote sensing test data by acquiring various photoelectric sensor data, laser radar can obtain the target orientation and distance information for three-dimensional reconstruction, and visible light camera and infrared camera can obtain the target two-dimensional image information for detection and recognition. Through demonstration and verification, the semi-physical simulation platform can provide effective support for aerial remote sensing test.
-
Keywords:
- semi-physical simulation /
- miniature sand table /
- truss robot /
- photoelectric sensor
-
引言
X射线计算机断层扫描(computed tomography, CT)是医学领域普遍采用的成像方法之一,有助于疾病的早期发现和治疗方案的制定。先前的多项研究已经表明,在CT扫描过程中辐射暴露对患者的身体有害,可能会增加基因突变的风险,从而导致患癌症或其他疾病的风险[1]。因此,在保证临床诊断准确度的同时,有必要最大程度地减少CT扫描过程中的辐射剂量[2]。减少辐射暴露会增加重建图像中的噪声水平和伪影,这些因素会影响重建图像的质量、医生诊断的准确性[3]。为了解决上述问题,研究人员探索了许多算法,在提高低剂量CT(low dose CT, LDCT)图像质量的同时最大限度地减少X射线剂量。
目前,LDCT图像降噪方法主要分为3种[4]:投影域处理、迭代重建和图像后处理。投影域处理方法[5]是对原始投影数据先进行去噪处理然后使用重建算法得到去噪后的CT图像。常用的处理方法包括双边滤波算法[6]、结构自适应滤波[7]和非线性各向异性扩散滤波[8]。迭代重建算法将先验信息作为抑制噪声及伪影和保持边缘信息的惩罚项集成到目标函数中,通过反复迭代的过程来优化统一的目标函数。例如,稀疏表示先验[9]、总变异[10]和字典学习先验[11]。这些算法在一定程度上都能有效去除噪声,但它们都存在问题——投影数据获取困难和重建时间长。相较于其他两种算法,图像后处理算法针对已经重建的CT图像进行有效处理。传统的图像后处理算法包括使用自适应非局部均值滤波[12]进行LDCT去噪,基于分块匹配和自适应3D滤波算法以提高LDCT图像的成像质量等。尽管传统的图像后处理算法在LDCT图像的恢复中表现良好,但它们会使图像过于平滑,并可能丢失关键的局部信息,难以在保持细节及纹理信息和抑制噪声之间达到最佳平衡。
近年来,基于深度学习的网络模型在处理低剂量CT图像去噪方面表现出了极大的优势。其中,基于卷积神经网络的图像去噪方法被证明具有很好的效果,如CHEN H等[13]将自动编码器和反卷积网络连接到REDCNN(residual encoder-decoder convolutional neural network),以补偿上采样引起的结构信息失真,可以有效恢复图像细节。虽然上述算法取得了一定的效果,但仍存在过拟合和模型训练不足的问题。为了解决这个问题,研究人员在网络结构改进方面做了大量的研究。例如,PENG Y等[14]提出对称跳跃连接和扩展卷积相结合的扩展残差网络,提高了网络的去噪性能。LI M[15]等提出自注意力三维卷积网络,改善CNN感受野,通过自监督学习来进行图像去噪。为了更好地保留边缘信息,LIANG T等[16]提出了一种基于边缘的密集耦合卷积神经网络(EDCNN),该网络通过构建密集连接模型将边缘信息融合在一起,用注意力模块提取更准确的噪声信息,实现了端到端的LDCT图像去噪。虽然上述方法对于图像恢复是有效的,但无法捕捉到不同尺度下噪声图像的层次特征。GUI X等[17]提出AAFFA(artifact-assisted feature fusion attention)网络去除LDCT噪声,结合伪影辅助特征融合与多层次注意力,有效去噪并保留细节。此外,WANG D等[18]提出了一种基于Transformer的低剂量CT去噪模型,可以有效去除边界伪影,但是它的网络运算复杂,且部分图像细节会丢失。
尽管现有的网络架构对LDCT图像的去噪性能有了显著的提升,但在进行网络训练时没有考虑到空间特征和去噪任务之间的关系,对图像上下文信息的使用不足导致图像细节丢失,且缺乏对噪声及伪影的关注,限制了降噪效果。因此,本文提出一种多尺度密集残差和全局注意力机制结合的模型,进行低剂量CT图像去噪,采用改进的多尺度密集残差块(multi scale dense residual blocks,MRDB)实现多尺度特征的有效提取,全局注意力机制在低剂量图像去噪中的应用能够充分利用图像的全局信息,实现自适应的权重调整,从而提高去噪效果并保留图像的细节和特征。
1 降噪模型
基于深度学习的LDCT图像去噪算法依赖于噪声和伪影的统计模型,相比于传统算法而言,可以有效解决图像中噪声模型的不确定性问题。假设$ X \in {{\mathrm{R}}^{M \times N}} $是一张大小为$ M{{ \times }}N $的LDCT图像,$ Y \in {{\mathrm{R}}^{M \times N}} $为对应的NDCT图像。LDCT的去噪模型表示为
$$ X = g(Y) $$ (1) 式中:$ g(\cdot) $表示LDCT图像到NDCT图像的映射,即经过一个复杂的退化过程。通过最小化目标函数减少噪声,使
$$ F(X) = \mathop {\arg \min }\limits_{f(X)} \left\| {f(X) - Y} \right\|_2^2 $$ (2) 式中$ F(X) $可以被视为$ {g^{ - 1}} $的最优近似。
2 整体网络结构
本文设计了一个LDCT去噪模型MRD-GAMNet(multi scale dense residual-global attention mechanism network),其总体网络框架如图1所示,该模型由多尺度密集残差块(MRDB)、全局注意力模块(GAM)和去噪模块(DB)构成。为了加速模型收敛,该模型直接学习LDCT图像中噪声的分布,以实现更好的去噪效果。在主特征提取网络中,我们创新性地融合了多尺度密集残差块和全局注意力模块,分为提取图像特征的编码端和专注于特征有效融合的解码端。构建编码器和解码器时,使用MRDB作为核心模块,全面捕获图像在不同尺度下的特征信息。此外,利用密集连接的方式,可以有效解决训练过程中的梯度消失问题,进而提升模型训练的性能。为了提高对跨维信息的关注,减少信息损失,在编码端的每一层加入全局注意力模块,提高对噪声和伪影的关注。最后,将原始LDCT图像与上一步输出相减以获得高质量去噪图像。
2.1 多尺度密集残差块
MRDB在密集残差块(RDB)中加入了空洞空间卷积池化金字塔(atrous spatial pyramid pooling,ASPP)模块,如图2所示。本文由4组卷积层与ReLU激活函数构成密集残差块(residual dense block),其中卷积核的大小为3×3,每组都由32个卷积核组成,可以从网络中有效地提取特征并降低网络训练的复杂度。ASPP模块是基于扩张卷积原理构建的,该模型旨在通过不增加网络参数的方式,有效扩展模型的感受野,从而有助于模型获取更广泛的图像信息。文中ASPP模块包括1×1Conv、用于调整特征图的通道数以及扩张率为6和12的3×3卷积,用于捕获不同尺度的图像特征,同时增加一个全局池化层来提取全局信息。将得到的不同尺度的特征进行合并,并通过1×1Conv进行特征融合。随后,这些融合后的特征与RDB的特征进行融合,进一步提升了特征的表达能力。
2.2 全局注意力机制
在图像的降噪过程中,像素重构的效果取决于其获取的上下文信息的丰富程度,信息越丰富,去噪效果越好。WOO S等[19]提出了通道和空间注意力相结合的卷积块注意模块(convolutional block attention module, CBAM),可以更好地捕捉到图像中的局部细节和结构信息,然而这种方法忽略了通道和空间之间的相互作用,从而失去了跨维信息。为了充分提取图像的上下文信息,以加大全局跨维度交互和重要特征的充分学习,本文引入了GAM模块(如图3所示),GAM通过集成改进的CAM和SAM,加强网络对LDCT图像噪声及伪影的关注,抑制不相关信息,以实现更好的去噪效果。给定输入特征映射$ F \in {{\mathrm{R}}^{C \times H \times W}} $,其计算过程为
$$ {F^{'}} = {M_{\mathrm{s}}} \times \left( {{M_{\mathrm{c}}} \times F} \right) $$ (3) 式中:$ {M_{\mathrm{c}}} $和$ {M_{\mathrm{s}}} $是通道注意力图和空间注意力图;×表示按元素进行乘法运算,得到新的特征映射$ {F^{'}} $。
如图4所示,首先,对于输入的特征图,通道注意力模块(CAM)不改变特征图的空间维度,使用3D排列来跨3个维度保留信息。随后,特征图被输入到多层感知器(MLP),该MLP采用压缩比为r的两层结构,旨在学习通道和空间相关性。然后将这3个维度再次在三维空间中对齐,以确保信息的完整性和一致性。最后,运用sigmoid激活函数,将输出值映射到0~1的区间内,以实现归一化,从而得到具有增强通道重要性的特征表示。其计算公式为
$$ M_{\mathrm{c}}\left(F_1\right)=\sigma\left\{M\mathrm{_{rp}}\left\{M_{\mathrm{MLP}}\left\{M\mathrm{_P}\left(F_1\right)\right\}\right\}\right\} $$ (4) 式中:$ {F_1} $为输入映射;$ {M_{\mathrm{P}}} $和$ M\mathrm{_{RP}} $为排列操作和重排操作;$ {M_{{\mathrm{MLP}}}} $为多层感知器算法;$ \sigma $为sigmoid函数。
如图5所示,在空间注意力模块(SAM)中,为了更好地保留特征映射的细节信息,本文去除了SAM中最大池化操作。同时,为了保持与通道注意力模块的一致性,采用了与其相同的压缩比r。此外,引入7×7卷积核以扩大感受野,并捕捉更丰富的空间上下文信息。最后,为了规范特征图的取值范围并提升模型的稳定性,使用sigmoid激活函数。通过SAM获取不同空间位置的特征信息,模型能更有效地捕获图像中的噪声特征。其计算公式为
$$ {M_{\mathrm{s}}}\left( {{F_2}} \right) = \sigma \left\{ {{M_{{\mathrm{conv}}}}\left\{ {{M_{{\mathrm{conv}}}}\left( {{F_2}} \right)} \right\}} \right\} $$ (5) 式中:$ {F_2} $为CAM的输入;$ {M_{{\text{conv}}}} $为7×7卷积运算;$ \sigma $为sigmoid函数。
2.3 去噪模块
在去噪任务中,网络结构的选择和函数的组合对于提高去噪效果至关重要。本文的去噪块包括1×1Conv与ReLu激活函数组合、深度可分离卷积(DWConv)、Subtract和ReLu激活函数,以实现高效且准确的去噪。1×1Conv+ReLu可以更有效地集成前一层的边缘信息,使输出特征图更加稳定,有效避免信息重复或丢失,同时有助于减少计算次数。设置DWConv的滤波器数量为1,对应于单个通道的输出,进一步优化网络的结构,减少卷积计算所需的参数数量。同时,DWConv块能够学习到原始图像与噪声之间的差异,通过Subtract操作,将原始LDCT图像与DWConv块的输出相减,将这种差异从原始图像中去除,以获得最终的去噪图像。最后,采用ReLU激活函数,旨在进一步增强模型的泛化性能。去噪模块如图6所示。
2.4 损失函数
为了克服均方误差损失方法造成的图像过于平滑且丢失细节导致模糊的问题,本文将多尺度特征损失作为目标函数,如式(6)所示:
$$ {L}_{{\mathrm{MSE}}}(F(x),F({x}'))=\frac{1}{L}{{\displaystyle \sum _{i=1}^{L}\Vert {F}_{i}(x)-{F}_{i}({x}')\Vert^{2} }} $$ (6) 式中:$ x $为重建图像;$ {x{'}} $为对应的标准剂量图像;$ {F_i}(x) $为重建图像经过第i层卷积层后提取的特征;$ {F_i}({x{'}}) $为对应的标准剂量图像经过第i层卷积层后提取的特征;L为卷积层的数量。
3 实验设计及结果分析
3.1 数据集
为了证明本文提出模型对LDCT图像的去噪能力,在本文的研究实验中使用了癌症档案馆(the cancer imaging archive, TCIA)所提供的2016年 NIH-AAPM-Mayo Clinic 低剂量CT挑战赛的数据集[20]。该数据集包含了10名匿名患者NDCT图像和相应的LDCT(四分之一剂量)图像,共
2378 对。所有图像的切片厚度均为3 mm,原始分辨率为512×512像素。在实验中,我们选择了8名患者的1 900对CT图像进行训练,以及另外2名患者的478对CT图像进行测试。3.2 实验环境与参数设置
本实验是在64位Windows10系统上进行的,该系统具有用于网络训练的Pytorch框架,所有实验均使用NVIDIA GeForce MX330GPU完成。在优化过程中我们使用自适应动量估计(Adam)对模型进行优化,并将参数设置如下:参数β1为0.9,β2为0.999。学习率最初设置为0.001,网络训练周期设置为200。
3.3 评价指标
为了全面评估图像质量,本文采用了多种评价指标,峰值信噪比(PSNR)、结构相似度(SSIM)以及散斑指数(speckle index, SI)。其中,PSNR用于量化处理后图像与标准图像间的差异,该值越大表明处理后的图像与标准图像越接近,代表图像质量越好。其表达式为
$$ Q_{{\rm{PSNR}}} = 10\lg \left(\frac{{I_{{\rm{MAX}}}^2}}{{I_{{\rm{MSE}}}}}\right) $$ (7) 式中:$ I_{{\mathrm{MAX}}} $表示图像像素值的最大可能取值,$ I_{{\mathrm{MSE}}} $表示均方误差。
SSIM是从三个方面来度量图像的视觉质量:亮度、对比度和图像结构值,范围为[0,1]。SSIM值越高,表示结构越相似。其表达式为
$$ Q_{{\rm{SSIM}}}(X,Y) = \frac{{(2{\mu _X}{\mu _Y} + {c_1})(2{\sigma _{XY}} + {c_2})}}{{(\mu _X^2 + \mu _Y^2 + {c_1})(\sigma _X^2 + \sigma _Y^2 + {c_2})}} $$ (8) 式中:$ {\mu _X} $、$ {\mu _Y} $分别表示$ X $和$ Y $的平均值;$ {\sigma _X} $、$ {\sigma _Y} $分别是$ X $和$ Y $的标准差;c1、c2是维持计算稳定的常量。
SI是衡量图像中散斑噪声水平的一个量化指标,散斑指数越小,表示图像受散斑噪声调制的程度越低,即图像质量越好。其表达式为
$$ Q_{{\mathrm{SI}}}=\frac{1}{M\times N}{\displaystyle \sum _{i=1}^{M}{\displaystyle \sum _{j=1}^{N}\frac{\sigma (i,j)}{u(i,j)}}} $$ (9) 式中:$ M \times N $表示图像的大小;$ \sigma (i,j) $表示图像中位置$ (i,j) $的测量窗口内像素灰度值的标准差;$ u(i,j) $表示在图像中位置$ (i,j) $的测量窗口内像素灰度值的平均值。
3.4 实验结果分析
为了评估所提方法的性能,本文选取传统算法BM3D、编码器-解码器卷积网络RED-CNN、第一个基于纯Transformer架构的网络CTformer这3种典型的方法进行了比较。从测试集中挑选两个具有代表性的切片,不同去噪方法对LDCT图像的去噪效果如图7所示,每幅图的下方为感兴趣区域(ROI)的放大图。
观察图7可以发现,LDCT图像分布了大量的条纹伪影和散射噪声,相比之下,NDCT图像中可以清楚地看到正常的人体组织结构。通过对整体去噪结果的综合分析,可以看到4种算法在去除LDCT图像中的伪影和噪声方面均有所成效,但各自的效果存在显著差异。具体而言,在BM3D算法的去噪图像中,不难发现仍有大量伪影残留,其去噪效果相对较差,去噪性能仍有待提升;RED-CNN的去噪图像有效地抑制了噪声,但是该算法使用MSE作为损失函数,使得去噪后的图像存在过度平滑和纹理细节缺失的问题,视觉效果显得很模糊;CTformer可以显著抑制伪影和噪声,很好地保留了细节信息,但也存在过渡平滑的问题。所提出的MRD-GAMNet去除了大范围的噪声水平,条纹伪影也是对比方法中最浅的,细节恢复的更多。总体而言,该方法结果图中的纹理和细节更接近NDCT图像,比另外3种典型的方法具有更明显的优势和更好的泛化性。
为了客观评价所提出方法在LDCT图像降噪的有效性,表1展示了4种方法对数据集中478对测试图像的去噪效果的平均PSNR、SSIM和SI值。从表中可以看出,由于BM3D处理后的图像PSNR和SSIM的指标值最低,且散斑指数最高,说明这种算法相比于深度学习的去噪方法,效果并不理想。RED-CNN是基于MSE的去噪方法,尽管获得了更好的PSNR和SSIM结果,但图7的视觉结果证实,在处理LDCT图像时,基于MSE的方法产生了过度平滑结果,导致结构信息丢失。CTformer通过无卷积token2Token扩展视觉变压器进行去噪,各个指标值都取得了显著的改善。与这3种算法相比,本文算法不仅采用多尺度特征损失函数来改善图像过于平滑的问题,还通过全局注意力机制和多尺度密集残差模块进一步提取全局信息能力和图像的多尺度特征,PSNR和SSIM两项指标最高,散斑指数最低,均达到了最佳效果。较LDCT图像相比,PSNR提高了19.5%,SSIM提高了10.9%。对比4种方法的散斑指数,可以看出本文算法对散斑噪声的抑制效果最好。从视觉感知和定量性能来看,本文算法在LDCT去噪任务中获得了最优的效果。
表 1 不同算法对LDCT图像降噪对比结果Table 1. Comparison of denoising results of LDCT images using different algorithmsMethod PSNR SSIM SI LDCT 29.4354 0.8660 0.3695 BM3D 31.8327 0.8992 0.3044 RED-CNN 32.6219 0.9169 0.2914 CTformer 34.3157 0.9511 0.2848 Ours 35.1838 0.9605 0.2845 考虑到不同算法在极端噪声条件中的鲁棒性,我们采用了泊松噪声模型,在LDCT图像上加入了强度为1×102的泊松噪声。图8显示了4种算法在极端噪声水平下的去噪结果。从图中可以看出,加入泊松噪声的LDCT图像噪声和伪影更加严重,图像质量明显下降,难以分辨图像中的组织结构和详细信息。通过观察4种方法的效果差异,BM3D方法去噪后图像存留了大量的噪声伪影,RED-CNN和CTformer方法的去噪效果都存在边缘模糊和细节损失的情况(如图中的蓝色箭头所示)。相比之下,本文方法在细节信息和纹理结构方面更具有优势。与其他3种算法相比,所提方法在这种极端噪声条件下具有很强的鲁棒性。
表2显示了4种算法降噪效果的PSNR、SSIM和IS的平均指标,从表2中不同算法对应的极端噪声去噪图像指标可以看出,BM3D、RED-CNN和CTformer算法的各项指标均有所改善,但不同算法的结果差异不明显。同时结果表明,对于本文所提出的MRD-GAMNet,其各项指标都具有最佳值,其网络性能更好。因此,MRD-GAMNet在较好地保留特征信息的前提下,可以更好地实现去噪,使去噪结果在很大程度上接近NDCT。通过分析同一算法对LDCT图像和极端噪声条件中LDCT图像的去噪结果,发现在不同场景下,本文算法与3种比较算法的量化值均有提高。然而,本文方法对不同噪声条件的LDCT图像的去噪性能更稳定,其各项指标均值都达到了较好的效果。
表 2 极端噪声条件下不同算法降噪评价指标Table 2. Evaluation indexes of noise reduction by different algorithms under extreme noise conditionsMethod PSNR SSIM SI LDCT 18.0209 0.6932 0.5629 BM3D 18.5560 0.7313 0.4161 RED-CNN 18.9179 0.7643 0.3848 CTformer 19.7843 0.7358 0.3472 Ours 20.1060 0.7791 0.3102 4 结论
本文提出的MRD-GAMNet网络充分运用了MRDB的多尺度特征提取优势与GAM模块的全局信息提取能力,该网络可以自适应图像数据的复杂性,显著提升去噪的准确性和鲁棒性,使图像中的细微细节得以完整保留。在训练过程中运用了多尺度特征损失函数,避免了图像过于平滑导致模糊的现象。实验结果表明,相比于其他算法,本文方法在图像视觉质量和客观指标上都具有更好的性能,在实现LDCT图像降噪上达到最佳效果。
-
表 1 仿真与现实数据目标识别性能比较
Table 1 Performance comparison of target recognition of simulation and real data
项目 mAP/% YOLOv5 YOLOv7 YOLOv8 可见光-仿真 99.0 98.2 99.2 可见光-现实 98.9 99.4 99.6 红外-仿真 98.4 97.6 98.9 红外-现实 97.1 98.5 99.1 -
[1] 吉书鹏. 机载光电载荷装备发展与关键技术[J]. 航空兵器, 2017, 24(6): 3-12. JI Shupeng. Development of airborne photoelectric load equipment and key technologies[J]. Aviation Weapon, 2017, 24(6): 3-12.
[2] 王莉雅, 段锦, 付强, 等. 多角度探测的不同材质表面偏振特性实验分析[J]. 应用光学, 2023, 44(1): 137-144. doi: 10.5768/JAO202344.0103004 WANG Liya, DUAN Jin, FU Qiang, et al. Experimental analysis of the surface polarization characteristics of different materials for multi-angle detection[J]. Journal of Applied Optics, 2023, 44(1): 137-144. doi: 10.5768/JAO202344.0103004
[3] 吴祥飞, 何恩节, 郑磊, 等. 基于光电传感器的智能车寻迹系统[J]. 现代计算机, 2018, 24(15): 71-74. WU Xiangfei, HE Enjie, ZHENG Lei, et al. Intelligent vehicle tracking system based on optical sensor[J]. Modern Computer, 2018, 24(15): 71-74.
[4] 刘嘉健, 董博, 吕梓亮, 等. 基于全场干涉测量方法的透镜三维轮廓测量[J]. 应用光学, 2018, 39(2): 220-224. LIU Jiajian, DONG Bo, LYU Ziliang, et al. Lens 3D profile measurement based on the full-field interferometric method[J]. Journal of Applied Optics, 2018, 39(2): 220-224.
[5] 牛新, 窦勇, 张鹏, 等. 基于深度学习的光学遥感机场与飞行器目标识别技术[J]. 大数据, 2016, 2(5): 54-67. doi: 10.11959/j.issn.2096-0271.2016054 NIU Xin, DOU Yong, ZHANG Peng, et al. Optical remote sensing based on deep learning[J]. Big Data, 2016, 2(5): 54-67. doi: 10.11959/j.issn.2096-0271.2016054
[6] 邱志强. 基于仿射近似从航空图像重建目标三维结构[D]. 长沙: 国防科学技术大学, 2004. QIU Zhiqiang. Reconstruction of target 3D structures from aerial images based on affine approximation[D]. Changsha: The National Defense University of Science and Technology, 2004.
[7] 丁艳, 金伟其, 郭玉柱, 等. 基于大屏幕的可见光目标模拟器技术研究[J]. 光学技术, 2008, 34(4): 610-612. doi: 10.3321/j.issn:1002-1582.2008.04.040 DING Yan, JIN Weiqi, GUO Yuzhu, et al. Research on visible light target simulator technology based on large screen[J]. Optical Technology, 2008, 34(4): 610-612. doi: 10.3321/j.issn:1002-1582.2008.04.040
[8] 李增彦, 李小民. 无人侦察机半物理跟踪仿真平台设计与实现[J]. 测控技术, 2013, 32(3): 62-65. doi: 10.3969/j.issn.1000-8829.2013.03.016 LI Zengyan, LI Xiaomin. Design and implementation of the semi-physical tracking simulation platformfor unmanned reconnaissance aircraft[J]. Measurement & Control Technology, 2013, 32(3): 62-65. doi: 10.3969/j.issn.1000-8829.2013.03.016
[9] 姜智, 闫智强, 成高, 等. 基于导弹半实物仿真的三维场景构建[J]. 电子设计工程, 2020, 28(15): 83-87. JIANG Zhi, YAN Zhiqiang, CHENG Gao, et al. 3D scene construction based on missile semi-physical simulation[J]. Electronic Design Engineering, 2020, 28(15): 83-87.
[10] 宋凯, 崔丽君, 李亚威, 等. 无人机光电载荷半实物仿真技术研究[C]//中国航天电子技术研究 院 科学技术委员会2020年学术年会论文集. 北京: 中国航天电子技术研究院, 2020: 766-772. SONG Kai, CUI Lijun, LI Yawei, et al. Research on semi-physical simulation technology of UAV[C]// Proceedings of the 2020 Annual Meeting of Science and Technology Committee of China Academy of Aerospace Electronics Technology. Beijing: China Academy of Aerospace Electronics Technology, 2020: 766-772.
[11] 韩峰, 张衡, 朱镭, 等. 增强现实环境下的CPS虚拟装配系统研究与实现[J]. 应用光学, 2019, 40(3): 387-392. doi: 10.5768/JAO201940.0301005 HAN Feng, ZHANG Heng, ZHU Lei, et al. Research and implementation of CPS virtual assembly system in augmented reality environment[J]. Journal of Applied Optics, 2019, 40(3): 387-392. doi: 10.5768/JAO201940.0301005
[12] 丁伟利, 杨庆, 张恒. 基于虚拟仿真的龙门机器人板材智能分拣系统及方法[J]. 高技术通讯, 2023, 33(6): 630-642. doi: 10.3772/j.issn.1002-0470.2023.06.008 DING Weili, YANG Qing, ZHANG Heng. Intelligent sorting system and method of gantry robot plate based on virtual simulation[J]. High-Technology Letters, 2023, 33(6): 630-642. doi: 10.3772/j.issn.1002-0470.2023.06.008
[13] SHI H, XIE J, WANG X, et al. An operation optimization method of a fully mechanized coal mining face based on semi-physical virtual simulation[J]. International Journal of Coal Science & Technology, 2020, 7(1): 147-163.
[14] 向孝龙, 陈欣, 李春涛. 基于RTW和VxWorks的无人机仿真系统设计与实现[J]. 计算机测量与控制, 2014, 22(4): 1291-1293. XIANG Xiaolong , CHEN Xin , LI Chuntao. Design and implementation of UAV simulation system based on RTW and VxWorks[J]. Computer Measurement & Control, 2014, 22(4): 1291-1293.
[15] LIU C, LIU H. Research on key technologies of simulated training system for large ground contro l station of UAS[C]//Global Intelligence Industry Conference (GIIC 2018). New York: SPIE, 2018: 382-386.
[16] 邓攀, 曹红松. 基于STK场景的惯导姿态半实物仿真[J]. 机械工程师, 2016(3): 20-21. doi: 10.3969/j.issn.1002-2333.2016.03.009 DENG Pan, CAO Hongsong. Physical simulation of inertial guided pose based on STK scenario[J]. Mechanical Engineer, 2016(3): 20-21. doi: 10.3969/j.issn.1002-2333.2016.03.009
[17] 张泰江, 李勇军, 赵尚, 等. OPNET和STK联合的空间光骨干网络仿真设计[J]. 应用光学, 2019, 40(5): 901-909. doi: 10.5768/JAO201940.0508001 ZHANG Taijiang, LI Yongjun, ZHAO Shang, et al. Simulation design of the spatial optical backbone network combined by OPNET and STK[J]. Journal of Applied Optics, 2019, 40(5): 901-909. doi: 10.5768/JAO201940.0508001
[18] JIANBO X, DABIN H, MINLIN L. Key technologies in semi-physical periscope scene simulation system[C]//2010 International Forum on Information Technology and Applications. New York: IEEE, 2010: 390-393.
[19] CHU W, HE X, ZHU Z. Research on the semi-physical simulation maintenance training system of one engineering equipment[C]//2019 International Conference on Modeling, Analysis, Simulation Techologies and Applications (MASTA 2019). Netherlands: Atlantis Press, 2019: 34-39.
[20] 李增彦, 李小民, 周兆英, 等. 机载稳定平台半实物仿真方法研究[J]. 电光与控制, 2016, 23(6): 60-63. LI Zengyan, LI Xiaomin, ZHOU Zhaoying, et al. Research on the semi-physical simulation method of airborne stabilization platform [J]. Electro and Control, 2016, 23(3): 60-63.
[21] YANG Y, NEWSAM S. Bag-of-visual-words and spatial extensions for land-use classification[C]//Sigs Patial International Conference on Advances in Geographic Information Systems. New York: ACM, 2010: 270.
[22] 刘康, 周壮, 李盛阳, 等. 天宫一号高光谱遥感场景分类数据集及应用[J]. 遥感学报, 2020, 24(9): 1077-1087. LIU Kang, ZHOU Zhuang, LI Shengyang, et al. Classification data set and application of tiangong-1 hyperspectral remote sensing scenes[J]. Journal of Remote Sensing, 2020, 24(9): 1077-1087.
[23] CHENG G , HAN J , LU X. Remote sensing image scene classification: benchmark and state of the art[J]. IEEE, 2017, 105(10): 1865-1883.
[24] 江万寿, 胡翔云, 闫吉星, 等. 基于机载LiDAR点云的建筑物三维模型重建[M]. 北京: 科学出版社, 2019: 65-83. JIANG Wanshou, HU Xiangyun, YAN Jixing, et al. Building 3D model reconstruction based on onboard LiDAR point cloud [M]. Beijing: Science Press, 2019: 65-83.
[25] 朱敏. 基于特征点匹配的多维度光学探测与拼接技术的研究[D]. 杭州: 浙江大学, 2018. ZHU Min. Research on multi-dimensional optical detection and splicing technology based on feature point matching [D]. Hangzhou: Zhejiang University, 2018.