FDM printing trajectory measurement and quality evaluation method based on infrared imaging
-
摘要:
熔融沉积型(fused deposition modeling, FDM)增材制造是一个热加工过程,打印温度与运行精度的研究是2个相对独立的方向,红外成像中高温熔丝的形状信息通常得不到有效的利用,无法在温度监控的同时对打印设备的实时运行状态进行检测。提出了一种基于红外成像的FDM打印轨迹测量及质量评价方法,采用红外相机对FDM打印机的热加工过程进行连续测量,通过建立打印机系统坐标系与相机世界坐标系的位姿解算模型,以及动态帧间红外特征匹配的全局相机运动位姿解算模型,实现了对末端喷嘴运行位姿的实时测量,得到了精确的打印轨迹信息。在此基础上,建立了空间打印轨迹与红外图像中高温熔丝间的物像映射关系,并在图像域对打印过程中的典型缺陷进行了质量评价,其中图像处理平均耗时为25.9 ms,红外相机位姿测量的重投影误差为0.7像素,正常打印状态下,系统计算得到的理想打印轨迹与红外图像内高温区域的平均交并比为0.61。实验结果表明,该方法能够对打印过程中出现的模型错位、出料异常等典型问题进行准确识别,为打印质量在线评价的相关研究提供了一种新的解决途径。
Abstract:Fused deposition modeling (FDM) is a hot working process, the research on temperature and motion accuracy in the printing process are independent directions, and the shape of the high temperature filament in the infrared image is usually not concerned, making it impossible to detect the operating status and temperature of the printer at the same time. An FDM printing trajectory measurement and quality evaluation method based on infrared imaging was proposed. The method adopted infrared camera to continuously monitor the FDM printing process, and established the pose solution model of the printer coordinate system and the camera world coordinate system, as well as the global camera motion pose solution model matching the infrared features between dynamic frames. The real time measurement of the running position of the end nozzle was realized, and the accurate print trajectory information was obtained. On this basis, the object image mapping relationship between the spatial print trajectory and the high temperature filament in the infrared image was established, and the quality of the printing process and typical defects were evaluated in the image domain. The average time of image processing was 25.9 ms, and the reprojection error of infrared camera posture measurement was 0.7 pixel. Under normal printing conditions, the average IoU between the ideal print trajectory calculated by the system and the high temperature region in the infrared image is 0.61. The experimental results show that the proposed method can accurately identify the typical problems such as model dislocation and abnormal extruding in the printing process, which provides a new solution for the related research of online print quality evaluation.
-
引言
无人机作为新型作战力量,在长航时、高威胁区域、广域预警探测能力等方面发挥了显著作用,越来越受到世界各国的重视[1]。随着无人机越来越多地应用到军事领域中,传统手动操控方式的工作量急剧增加,人力耗费大,侦察效率低,对于瞬息万变的战场态势,如果完全依靠人工操作,必然会贻误最佳作战时机[2],因此迫切需要实现自动化、智能化的自主侦察方式,以提高侦察效率[3]。
自动目标识别技术是无人机实现自主侦察的关键技术[4]。过去由于自动目标识别技术不成熟,限制了自主侦察模式的应用,但是近些年来,受益于计算机硬件性能的提升和深度学习理论的不断完善,加快了目标识别技术从理论研究走向无人机实际作战应用的步伐[5-9]。基于深度学习的目标识别算法研究越来越多,比如文献[10]~[15]分别在深度学习算法基础上,对目标识别的处理速度和准确率进行了提升。在2016年大规模视觉挑战赛ILSVRC中,基于深度学习算法的分类错误率低至2.991%,远低于人类平均识别错误率5.1%,体现了在大规模数据集中的优势[5,10]。随着目标识别算法的应用日渐成熟,自主侦察模式的应用提上了日程,但是目前国内外鲜有针对自主侦察模式的研究。本文对自主侦察模式参数建立了数学模型,并针对案例做了仿真计算,为自主侦察模式的应用提供了理论支撑。
1 自主侦察模式概述
自主侦察模式把无人机的自动巡航功能和光电载荷的稳瞄稳像、自动扫描、自动识别、自动跟踪、激光测距、目标地理定位等功能有机结合起来,整个过程不需要人工干预,具有全自动化、侦察效率高等优点,这种智能化的侦察模式大大节省了人力,提高了战场作战效率。自主侦察模式的流程如图1所示。具体流程为:无人机起飞前,根据侦察任务进行模式参数计算,根据计算结果规划飞行航路和设定光电载荷的参数,然后无人机按照预定航路飞行到侦察区域上空自动巡航,光电载荷则对侦察区域进行自动扫描,同时对目标进行自动识别和分类,当识别到目标后,停止自动扫描,进行自动跟踪、激光测距、目标地理定位、上报目标信息(包括目标类型、地理位置等)等一系列操作。
为了使自主侦察模式达到识别率高、全覆盖、侦察速度快的目的,需要合理设置无人机和光电载荷的参数,满足各个参数的约束条件,根据实际情况确定最佳参数方案。
2 自主侦察模式的参数计算
2.1 参数介绍及计算链
自主侦察模式涉及无人机的飞行参数、光电载荷参数等,计算过程中涉及到的主要参数见表1所示。本文以光电载荷吊装状态为例,方位角0°与无人机机头方向一致,俯仰角方向定义水平为0°,抬头为正。由于实际情况的复杂性,因此在建立数学模型时做了简化处理。
表 1 自主侦察模式涉及的主要参数Table 1. Main parameters involved in autonomous reconnaissance mode序号 参数名称 含义 1 视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$/(°) 光电载荷内的光电传感器的水平视场角和垂直视场角 2 像元尺寸$\eta \times \eta $/µm 光电载荷内的光电传感器的像元尺寸 3 分辨率${F_{\text{H}}} \times {F_{\text{V}}}$/pixel 光电载荷内的光电传感器的分辨率 4 扫描角速度${V_S}$/(°)/s 光电载荷自动扫描状态下在方位上的角速度 5 扫描角度范围${\beta _r}$/(°) 光电载荷自动扫描状态下在方位上的角度范围 6 俯仰角$\alpha $/(°) 光电载荷在自动扫描过程中,其光轴与水平面之间的夹角,向上为正,向下为负。 7 飞行速度${V_f}$/m/s 无人机在自动巡航时的飞行速度 8 飞行高度${H_f}$/m 无人机在自动巡航时距离地面的高度 9 目标尺寸${A_{\text{H}}} \times {A_{\text{V}}}$/m 侦察目标的实际尺寸 10 自动识别的最少目标像素数$m \times n$/pixel 自动识别模块可以识别的最少目标的像素数,由自动识别模块的识别能力决定 11 侦察区域大小$j \times k$/m 矩形侦察区域的长和宽 12 扫描纵深${L_{{\text{FOV}}}}$/m 扫描时传感器垂直视场在地面上覆盖的宽度 13 纵深时间$ {T_{{\text{FOV}}}} $/s 无人机飞过扫描纵深的时间 14 中心目标距离${D_{{\text{center}}}}$/m 光电载荷视场中心的目标与光电载荷之间的距离 15 视场上极限中心目标距离${D_{{\text{up}}}}$/m 光电载荷内的光电传感器视场上极限中心对应的目标和光电载荷之间的
距离16 目标距离阈值${D_{{\mathrm{th}}}}$/m 根据最少目标像素数的识别要求而计算的目标距离 17 最大目标距离${D_{\max }}$/m 视场内的所有目标和光电载荷的距离的最大值 18 投影距离${L_D}$/m 中心目标距离在地面上的投影距离 19 扫描单程时间$ {T_S} $/s 自动扫描时光电载荷的方位角从左极限转到右极限(或从右极限转到左极限)所需的时间 20 原始扫描宽度$ W $/m 初步计算的扫描宽度 21 重叠率$ p $ 两个扫描带重叠部分的尺寸与扫描带尺寸之间的比率 22 修正扫描宽度$ W' $/m 考虑重叠率之后的扫描宽度 23 航路路程$ Q $/m 无人机侦察完指定区域需要飞行的
路程24 侦察时间$ {T_R} $/s 无人机侦察完指定区域所需的时间 计算过程中,自主侦察参数的计算链如图2所示。从图2中可以看出计算过程和各个参数之间的相互关系。
2.2 目标距离阈值${D_{\text{th}}}$
目标距离是光电载荷与目标之间的直线距离,它决定了目标在图像中的像素数。目标识别模块对目标有最少目标像素数要求,如果目标像素数小于要求,则不能识别目标,因此,可根据自动识别的最少目标像素数计算目标距离阈值${D_{\text{th}}}$。
已知传感器像元尺寸$\eta \times \eta $、传感器视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$、传感器分辨率${F_{\text{H}}} \times {F_{\text{V}}}$、自动识别的最少目标像素数$m \times n$、目标尺寸${A_{\text{H}}} \times A_{\text{V}}^{}$,分别按照目标水平和垂直2个方向计算,得到$ {D}_{\text{H}}=\dfrac{{A}_{\text{H}}}{\mathrm{tan}(m\times {\theta }_{\text{H}}/{F}_{\text{H}})} $和$ {D}_{\text{V}}=\dfrac{{A}_{\text{V}}}{\mathrm{tan}(n\times {\theta }_{\text{V}}/{F}_{\text{V}})} $,取${D_{\text{H}}}$和${D_{\text{V}}}$的最小值为目标距离阈值${D_{\text{th}}}$。
目标距离与目标识别率成反比,与侦察效率成正比。目标距离越大,扫描时瞬时视场侦察的区域越大,侦察效率越高,但图像上的目标像素数则越少,识别率越低;目标距离越小,图像上的目标的像素数越多,识别率越高,但是扫描时瞬时视场侦察的区域越小,侦察效率越低。
2.3 光电载荷俯仰角$ \alpha $
无人机飞行高度${H_f}$、中心目标距离${D_{{\text{center}}}}$、光电载荷俯仰角$\alpha $三者之间的关系如图3所示。因此,由图3几何关系可计算俯仰角$\alpha $:
$$ \alpha {\text{ = }}\frac{{180}}{{\text{π }}} \times \arcsin \left( {\frac{{{H_f}}}{{{D_{{\text{center}}}}}}} \right) $$ (1) 由图3可知,光电载荷光轴与垂直方向的夹角$\delta $为
$$ \delta = 90 - \alpha $$ (2) 根据图3可得,中心目标距离${D_{{\text{center}}}}$在地面上的投影距离${L_D}$为
$$ {L_D} = {D_{{\text{center}}}} \times \cos \alpha $$ (3) 2.4 扫描纵深${L_{{\text{FOV}}}}$
根据光电载荷光轴与垂直方向的夹角$\delta $、无人机飞行高度${H_f}$、传感器视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$,可计算出扫描纵深${L_{{\text{FOV}}}}$。
如图4所示,传感器视场下极限与垂直方向的夹角为${\delta _{{\text{down}}}}$,对应在地面上的投影距离为${L_{{\text{down}}}}$;传感器视场上极限与垂直方向的夹角为${\delta _{{\text{up}}}}$,对应在地面上的投影距离为${L_{{\text{up}}}}$,根据文献[16]中分辨能力分析模型,计算扫描纵深${L_{{\text{FOV}}}}$如下:
$$ {\delta _{{\text{down}}}} = \delta - {\theta _{\text{V}}}/2 $$ (4) $$ {\delta _{{\text{up}}}} = \delta + {\theta _{\text{V}}}/2 $$ (5) $$ {L_{{\text{down}}}}{\text{ = }}{H_f} \times \tan {\delta _{{\text{down}}}} $$ (6) $$ {L_{{\text{up}}}} = {H_f} \times \tan {\delta _{{\text{up}}}} $$ (7) $$ {L_{{\text{FOV}}}} = {L_{{\text{up}}}}{{ - }}{L_{{\text{down}}}} $$ (8) 根据式(2)、式(4)~式(8),可得:
$$ {L}_{\text{FOV}}={H}_{f}\times [\mathrm{tan}(90-\alpha +{\theta }_{\text{V}}/2)-\mathrm{tan}(90-\alpha -{\theta }_{\text{V}}/2)]\;\;\;\;\;\;\;\;\;\;\;\;\; $$ (9) 2.5 最大目标距离${D_{\max }}$
为了判断视场内所有目标是否都满足自动识别的要求,需要计算最大目标距离${D_{\max }}$,${D_{\max }}$的计算示意图如图5所示。
如图5(a)所示,视场上极限中心目标距离${D_{{\text{up}}}}$可由式(10)计算:
$$ {D_{{\text{up}}}}{\text{ = }}\frac{{{H_f}}}{{\cos {\delta _{u{\text{p}}}}}} $$ (10) 如图5(b)所示,最大目标距离${D_{\max }}$可由式(11)计算:
$$ {D_{\max }}{\text{ = }}\frac{{{D_{{\text{up}}}}}}{{\cos ({\theta _{\text{H}}}/2)}} $$ (11) 根据式(2)、式(5)、式(10)和式(11)可推导出:
$$ {D}_{\mathrm{max}}\text=\frac{{H}_{f}}{\mathrm{cos}(90-\alpha +{\theta }_{\text{V}}/2)\times \mathrm{cos}({\theta }_{\text{H}}/2)} $$ (12) 同一个视场内,不同位置的目标距离是不一样的,因此,应保证最大目标距离${D_{\max }}$≤目标距离阈值${D_{{\mathrm{th}}}}$,才能满足在自动扫描时图像上所有目标都能够满足识别要求。
2.6 纵深时间${T_{{\text{FOV}}}}$和扫描单程时间$ {T_S} $
扫描角度范围$ {\beta _r} $、扫描单程时间$ {T_S} $、扫描角速度${V_S}$三者之间的关系为
$$ {T_S} = {\beta _r}/{V_S} $$ (13) 无人机飞行速度${V_f}$、扫描纵深${L_{{\text{FOV}}}}$、纵深时间${T_{{\text{FOV}}}}$三者之间的关系为
$$ {T_{{\text{FOV}}}} = {L_{{\text{FOV}}}}/{V_f} $$ (14) 为使侦察效率最大,应遵循不漏扫、重复扫描区域最小的原则,如图6(a)所示。因此,光电载荷从右极限向左极限扫描,然后再从左极限向右极限扫描,时间应等于纵深时间${T_{{\text{FOV}}}}$,即:
$$ {T_{{\text{FOV}}}} = 2 \times {T_S} $$ (15) 如果式(14)不成立,则会出现以下两种情况:
1) ${T_{{\text{FOV}}}} < 2 \times {T_S}$,该情况下会漏扫,如图6(b)所示,${T_{{\text{FOV}}}}$越小,漏扫的区域越大;
2) ${T_{{\text{FOV}}}} > 2 \times {T_S}$,该情况下重复扫描区域增大,如图6(c)所示,${T_{{\text{FOV}}}}$越大,重复扫描区域越大,侦察效率越低。
在实际应用中,要保证${T_{{\text{FOV}}}} \geqslant 2 \times {T_S}$,即不出现漏扫情况。根据式(13)、式(14)和式(15)可推导出:
$$ {\beta _r} = \frac{{{V_S} \times {L_{{\text{FOV}}}}}}{{2 \times {V_f}}} $$ (16) 扫描速度对图像质量和侦察效率有影响。自动扫描时,积分时间内成像在传感器光敏面上的场景有像移,导致图像模糊,降低了图像质量[17-18]。扫描越快,侦察效率越高,但图像质量越差,识别率越低,虚警率越高,因此,需要合理设置扫描速度。
2.7 原始扫描宽度$ W $和修正扫描宽度$ W' $
自主侦察时,在光电载荷自动扫描与无人机直线飞行共同作用下,会扫描一个带状区域(简称扫描带)。为了简化计算,扫描带指传感器光轴的扫描覆盖范围,而不是传感器整个瞬时视场的扫描覆盖范围。
如图7所示,根据中心目标距离${D_{{\text{center}}}}$和扫描角度范围${\beta _r}$,计算原始扫描宽度$ W $为
$$ W = 2 \times {D_{{\text{center}}}} \times \tan \frac{{{\beta _r}}}{2} $$ (17) 实际扫描带两端并不是整齐的,而是锯齿状的,如图8所示。为了避免由于锯齿问题出现漏扫的情况,在实际扫描时,可以把2个扫描带之间进行重叠。假设重叠率为$ p $,那么考虑重叠率之后的修正扫描宽度$ W' $为
$$ W' = W \times (1 - p) $$ (18) 2.8 航路路程$ Q $和侦察时间$ {T_R} $
假设对一个指定矩形区域$j \times k$进行侦察,那么需要计算侦察该区域所需的时间,即侦察时间$ {T_R} $。首先对无人机规划“S”形的航路,航路之间的间距设置为修正扫描宽度$ W' $,如图9所示。规划完航路之后,计算航路路程$ Q $,最后结合无人机飞行速度${V_f}$,计算侦察时间$ {T_R} $:
$$ {T_R} = Q/{V_f} $$ (19) 需要注意的是,无人机在“S”形航路两端掉头过程中,由于无人机位置与扫描区域位置存在偏差(其偏差大小为投影距离${L_D}$),容易在侦察区域边缘出现漏扫问题,可结合参数${L_D}$延长侦察区域外的航路,以保证不漏扫。为了简化计算,航路掉头的飞行时间不计入侦察时间内。
2.9 计算过程特点分析
计算过程有如下特点:
1) 涉及的参数多,约束条件多,需要在符合各参数约束条件前提下,计算出最佳自主侦察参数。
2) 由于不同侦察系统的约束条件不一定相同,因此哪些参数是已知的,哪些参数是计算结果,以及计算顺序等情况也不尽相同,需要根据实际情况进行分析。
3) 在建立数学模型时,对实际应用中的复杂情况进行了简化,例如把实际产生的扫描带两端类似锯齿的形状简化为直线,计算侦察时间时不考虑无人机在航路两端掉头时的飞行时间等。
3 仿真计算
以某无人机侦察系统为例,假设对5 000 m×5 000 m的矩形区域执行自主侦察任务,在达到自动识别最少目标像素数要求、侦察区域全覆盖的前提下,计算所需的侦察时间。已知条件有:目标尺寸2.3 m×2.3 m;传感器参数为连续变焦,视场3°×1.7°~55°×30.9°,分辨率1 920 pixel×1 080 pixel,像元尺寸3.45 µm,自动识别要求最少目标像素为20 pixel×20 pixel,重叠率$ p $为10%。
根据建立的数学模型进行仿真计算,得到了3个方案,如表2所示。
表 2 自主侦察仿真计算的3个方案Table 2. Three schemes for simulation calculation of autonomous reconnaissance序号 参数名称 方案1 方案2 方案3 1 飞行高度${H_f}$/m 300 300 600 2 飞行速度${V_f}$/m/s 35 35 35 3 视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$/(°) 5.5×3.09 3×1.7 5. 5×3.09 4 俯仰角$\alpha $/(°) −9.59 −9.59 −19.4 5 扫描角度范围${\beta _r}$/(°) 14 7 7 6 扫描角速度${V_S}$/(°/s) 1.7 1.7 1.7 7 中心目标距离${D_{{\text{center}}}}$/m 1 800 1 800 1 800 8 目标距离阈值${D_{th}}$/m 2 300 4 216 2 300 9 最大目标距离${D_{\max }}$/m 2 144 1 973 1 950 10 纵深时间$ {T_{{\text{FOV}}}} $/s 17.1 9.1 8.4 11 扫描单程时间$ {T_S} $×2/s 16.4 8.2 8.2 12 修正扫描宽度$ W' $/m 393 197 197 13 侦察时间$ {T_R} $/s 1 857 3 714 3 714 经过对3个方案进行分析,得到如下结论:
1) 这3个方案都满足了${D_{\max }} \leqslant {D_{{\text{th}}}}$、${T_{{\text{FOV}}}} \geqslant 2 \times {T_S}$,说明满足自动识别对目标像素数的要求,没有漏扫,并且也说明方案并不是唯一的。
2) 方案2和方案1对比可知,视场越小,目标的像素数就越大,识别率越高,但是航路间距也越小,侦察时间越长。
3) 方案3和方案1对比可知,飞行高度不同,导致俯仰角、扫描角度范围、目标像素数、航路间距等参数也不同。飞行高度越大,扫描角度越小,航路间距越小,侦察时间越长。
4) 方案2和方案3对比可知,虽然侦察时间相同,但是参数方案不同,最终的实际侦察效果也不一样。
总之,3个方案各有特点,方案1的侦察时间最短;方案2的目标距离阈值最大,相同距离时识别目标的像素数最多,识别率最高;方案3的俯仰角绝对值最大,侦察时目标不容易被遮挡。因此,应用时根据实际情况计算参数方案。
4 结论
本文研究了无人机载光电载荷的自主侦察模式主要参数的计算方法,分析了各参数的意义及各个参数之间的相互影响,进行了仿真计算,并对仿真结果进行了分析,对自主侦察模式的应用起到了理论指导作用。但是由于实际情况的复杂性,有些问题尚未展开分析,比如扫描带的重叠率设置多大合适,扫描角速度对图像模糊的影响程度如何,光电载荷横滚安装状态的参数计算,多目标识别的策略等,这些问题可作为下一步的研究方向。
-
表 1 红外相机标定参数
Table 1 Infrared camera calibration parameters
参数 标定值 $ [{f_x},{f_y}]/{\text{pixel}} $ [334.767, 334.217] $[{u_0},{v_0}]/{\text{pixel}}$ [126.215, 100.097] ${k_1},{k_2},{k_3},{p_1},{p_2}$ [− 0.4112 ,0.1012 ,0.0008 , −0.1810 ,0.9387 ] -
[1] 葛正浩, 岳奇, 吉涛. 3D打印控制系统研究综述[J]. 现代制造工程, 2021(10): 154-162. GE Zhenghao, YUE Qi, JI Tao. An overview of the research on 3D printing control systems[J]. Modern Manufacturing Engineering, 2021(10): 154-162.
[2] CHEN W J, HO J H, MUSTAPHA K B, et al. A vision based system for anomaly detection and classification in additive manufacturing[C]//2019 IEEE Conference on Sustainable Utilization and Development in Engineering and Technologies (CSUDET). Malaysia: IEEE, 2019: 87-92.
[3] BECKER P, SPIELBAUER N, ROENNAU A, et al. Real-time In-situ process error detection in additive manufacturing[C]//2020 Fourth IEEE International Conference on Robotic Computing (IRC). Taiwan, China: IEEE, 2020: 426-427.
[4] KOPSACHEILIS C, CHARALAMPOUS P, KOSTAVELIS I, et al. In situ visual quality control in 3D printing[C]//11th International Conference on Information Visualization Theory and Applications. [S.l.]: [S.n.], 2020: 317-324.
[5] RACHMAWATI S M, PARAMARTHA PUTRA M A, JUN T, et al. Fine-tuned CNN with data augmentation for 3D printer fault detection[C]//2022 13th International Conference on Information and Communication Technology Convergence (ICTC). Korea: IEEE, 2022: 902-905.
[6] 屈晨光, 张师军, 高达利, 等. 环境温度对3D打印成型精度的影响[J]. 塑料工业, 2015, 43(8): 53-55. doi: 10.3969/j.issn.1005-5770.2015.08.013 QU Chenguang, ZHANG Shijun, GAO Dali, et al. Effect of ambient temperature on the 3D printing molding precision[J]. China Plastics Industry, 2015, 43(8): 53-55. doi: 10.3969/j.issn.1005-5770.2015.08.013
[7] 徐子又, 胡镔, 邢泽华, 等. 层间预熔温度对熔融沉积成型打印件力学性能的影响[J]. 塑料科技, 2019, 47(5): 37-43. XU Ziyou, HU Bin, XING Zehua, et al. Effect of interlayer premelting temperature on mechanical properties of fused deposition molded printed parts[J]. Plastics Science and Technology, 2019, 47(5): 37-43.
[8] 张金立, 施一萍, 刘瑾, 等. 非封闭式FDM 3D打印机喷头温度控制器研究[J]. 传感器与微系统, 2021, 40(1): 53-55. ZHANG Jinli, SHI Yiping, LIU Jin, et al. Research on temperature controller of non-closed FDM 3D printer nozzle[J]. Transducer and Microsystem Technologies, 2021, 40(1): 53-55.
[9] WANG F F, JU F, ROWE K, et al. Real-time control for large scale additive manufacturing using thermal images[C]//2019 IEEE 15th International Conference on Automation Science and Engineering (CASE). Canada: IEEE, 2019: 36-41.
[10] POOLADVAND K, SALERNI A D, FURLONG C. In-situ thermal monitoring of printed components during rapid prototyping by fused deposition modeling[M]//Conference Proceedings of the Society for Experimental Mechanics Series. Cham: Springer International Publishing, 2020: 131-140.
[11] ZHANG Z Y. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334. doi: 10.1109/34.888718
[12] 王谭, 王磊磊, 张卫国, 等. 基于张正友标定法的红外靶标系统[J]. 光学 精密工程, 2019, 27(8): 1828-1835. doi: 10.3788/OPE.20192708.1828 WANG Tan, WANG Leilei, ZHANG Weiguo, et al. Design of infrared target system with Zhang Zhengyou calibration method[J]. Optics and Precision Engineering, 2019, 27(8): 1828-1835. doi: 10.3788/OPE.20192708.1828
[13] COLLINS T, BARTOLI A. Infinitesimal plane-based pose estimation[J]. International Journal of Computer Vision, 2014, 109(3): 252-286. doi: 10.1007/s11263-014-0725-5
[14] 宋栓军, 邱成鸿, 徐微, 等. 红外热像下激光熔丝成形过程冷却速率实时监测[J]. 红外与激光工程, 2022, 51(11): 3788/IRLA20220074. SONG Shuanjun, QIU Chenghong, XU Wei, et al. Real time monitoring of cooling rate in laser metal-wire forming process under infrared thermography[J]. Infrared and Laser Engineering, 2022, 51(11): 3788/IRLA20220074.
[15] 朱进前, 凌泽民, 杜发瑞, 等. 激光熔丝增材制造温度场的红外热像监测[J]. 红外与激光工程, 2018, 47(6): 0604002. doi: 10.3788/IRLA201847.0604002 ZHU Jinqian, LING Zemin, DU Farui, et al. Monitoring of laser metal-wire additive manufacturing temperature field using infrared thermography[J]. Infrared and Laser Engineering, 2018, 47(6): 0604002. doi: 10.3788/IRLA201847.0604002