Single station pose measurement method for range basedon axis image length matching
-
摘要: 目前,靶场姿态测量以多台套交会测量为主,对于单站姿态测量尚没有较好的解决方案。为了解决该问题,以投影轴对称目标为例,提出了一种基于中轴线像长匹配的单站姿态测量方法。将透视投影拓展为2种等效形式,将体现目标姿态状态的中轴线向像面透视投影,可获得中轴线的投影像长或在等效物面的等效物长,根据目标中轴线的先验长度、相机内外参数及成像信息,经像长匹配即可获取目标的偏航角和俯仰角;实际工程试验验证了该算法的可行性,偏航角精度为1.7°,俯仰角精度约1°,满足靶场单站测姿需求;并对姿态测量模型关键因素进行了误差分析。该方法可适用于非投影轴对称目标。Abstract: To solve the question of no effective solution for single station pose measurement, a single station attitude measurement method based on length matching of central axis is proposed to measure projected-axisymmetric targets. Perspective projection is extended into two equivalent forms, which will reflect central axis of target attitude state. Image length of center axis or equivalent length of equivalent surface can be obtained by projection of image plane. According to a priori length of target axis, internal and external parameters of the camera and imaging information, pitching and yaw angle can be obtained through image matching by axis image length matching. Practical engineering test verifies the feasibility of this algorithm. Precision of pitch and yaw angle is 1.7° and 1° respectively, which can meet the needs of single station pose measurement in range. Finally, key factors concerning error of pose measurement model are analyzed. This method can be adapted to the non-projected-axisymmetric targets.
-
引言
飞行目标的偏航角、俯仰角等姿态特征参数是火箭发射装备、发射火药及国防工程设计、定型、验收和故障诊断等过程的主要参数,准确地测量这些参数对提高武器效能和国防工程的防御能力意义重大[1-2]。目前,靶场姿态测量以两站以上交会测量为主,但在设备故障及捕获目标失误的情况下,单站测姿必须发挥重要作用,故研究单站测姿非常有必要。
综合现有文献的单站测姿方法,基本可划分为需要建立精确目标模型前提下的单站模型匹配法; 不需要相机内参数的DLT方法[3],但该方法至少需要5对以上的物像点对应; 仅适用于投影轴对称目标的类似比例方法包括长宽比、椭圆长短轴比例法[4]等,该方法将透视投影做了平行投影的近似; 为突破该方法仅适合投影轴对称目标的局限,文献[5]利用了主轴以外的侧翼等信息,提出利用弱透视投影理论求解飞机等非投影轴对称目标的姿态角,但对模型缺乏系统、完整性分析; 文献[6]中使用的像点坐标差值比例法,该方法保持了透视模型的准确度,且利用了经纬仪较为准确的测角信息,但至少需要4个特征点,并对特征点的选取有一定要求,另外用到了站点的位置信息; 需要利用相机内外参数的PNP[7-9]以及光雷一体化方法[10],其中PNP也需要3对以上的控制点对应,且大多基于迭代的方法。
本文测姿方法立足靶场实际,不需要建立目标模型,在只有单站图像序列,仅仅依靠某些先验特征长度、摄像系统相机内外参数以及成像信息的情况下,不需要利用测站位置信息。在保持透视投影模型准确度的前提下,对于投影轴对称目标,可以精确定位弹首、弹尾2个特征点作为输入条件,较准确地获取目标的姿态角。
1 基本原理
本文以中轴线为透视投影对象,将已知长度的目标向已知内、外相机参数的姿态测量系统像面投影,获得模拟投影像长; 同时提取实际图像序列中的目标实际像长,两者匹配相等,即可获取包括参考物距、目标深度等关键中间参数,然后利用关键参数,可计算出目标姿态角。大致流程图如图 1所示。
2 算法基础—透视投影2种等效方法
透视投影2种等效方式是本文获取关键中间参数的重要环节,可等效为2种方式。
2.1 目标跨度内的物面等效为垂直于光轴的若干连续物面组
经过目标垂直于主光轴的平面作为近似目标平面组,这样的平面连续且有无限个,故本来连续的目标物可以离散化为无数个连续的近似目标平面,透视投影则为无数个离散目标微元在像面上投影的累加。
2.2 以任意的其中一个等效物面为基准
可以近似目标平面组的任意一个平面为等效目标平面,按照透视投影的关系,连接光心及目标点的直线与等效目标平面相交,交点则为该目标点在等效目标平面的等效物点,如此获得等效物面内的等效物长。
3 目标姿态求解
3.1 方法分析及关键过程设置
本文方法涉及的主要坐标系,除了基准坐标系、摄像机坐标系外,还涉及目标体坐标系,与测量坐标系平行的过渡坐标系(零姿态坐标系),O0-XpYpZp所有坐标系均符合右手坐标系。其中目标体坐标系O0-X0Y0Z0以体现目标姿态状态的中轴线为主轴建立; 设置初始姿态下的体坐标系与摄像机坐标系平行。
3.2 算法推导
已知条件:
物方 LAB=L;
像方 AB在像面的成像情况:可利用的包括A点成像AA(x1, y1),B点成像BB(x2, y2);
相机内参数 像主点(x0, y0)以及焦距f已知,畸变暂不考虑;
相机外参数 光轴指向α、β角,即为摄像机坐标系相对于基准坐标系的旋转角度。
求解:目标中轴线相对于基准坐标系的姿态ψ和φ。
透视投影如图 2所示,始终设B所在物面为参考物面,A向B所在的参考物面投影点为D,∠ABD=θ,由上面的直线透视投影原理,计算过程为
1) 计算中间变量u及sinθ
$$ \left\{ \begin{align} & \sqrt{{{({{x}_{1}}-{{x}_{2}})}^{2}}+{{({{y}_{1}}-{{y}_{2}})}^{2}}}\times \mu \times {{10}^{-6}}=1 \\ & \frac{u}{{{10}^{3}}f}=\frac{\sqrt{{{(\frac{u}{\text{cos}{{\alpha }_{1}}})}^{2}}+{{(\frac{u}{\text{cos}{{\alpha }_{2}}})}^{2}}-\frac{u}{u+L~\text{sin}\theta }\left[ \frac{{{(u+L\text{sin}\theta )}^{2}}}{{{(\text{cos}{{\alpha }_{1}})}^{2}}}+\frac{{{u}^{2}}}{(\text{cos}{{\alpha }_{2}})}-{{L}^{2}} \right]}}{\mu \sqrt{{{({{x}_{1}}-{{x}_{2}})}^{2}}+{{({{y}_{1}}-{{y}_{2}})}^{2}}}} \\ \end{align} \right. $$ (1) 2) 计算关键特征点在摄像机坐标系下的坐标;
3) 计算目标相对于摄像机坐标系的姿态角;
4) 计算目标中轴线矢量在过渡坐标系下的坐标,即计算过渡坐标系下的目标中轴线矢量;
5) 经进一步坐标系旋转,计算单位中轴线矢量在基准坐标系下的坐标(X, Y,Z), 姿态角为
$$ \left\{ \begin{array}{l} \psi = {\tan ^{ - 1}}\frac{{{Z^\prime }}}{{{X^\prime }}} + k\pi \\ \phi = {\tan ^{ - 1}}\frac{{{Y^\prime }}}{{\sqrt {{X^\prime }^2 + {Z^\prime }^2} }} \end{array} \right.(k以实际象限取值) $$ (2) 4 试验验证与误差分析
4.1 试验验证
为了验证姿态模型的精度,我们在靶场距离姿态测量系统测试点1.7 km左右处放置了一门120火炮,以炮管为目标进行测量和验证,炮管的的方位和俯仰角度值由全站仪测得,姿态测量系统对炮管进行静态或动态扫描拍摄,获得了系列不同角度值的测量图像,以其中2组为例,如图 3所示。
其中姿态测量系统内外参数为:拍摄频率为100 fps,可见光高速电视分辨率1 536×1024,焦距值为1 523.1 mm,光轴指向如表 1所示,被研究的关键段长度约为2.655 m,用本文的算法进行姿态处理结果如表 1所示。
表 1 算法结果单位(°) Table 1. Results of algorithmα β 偏航绝对误差 俯仰角误差 1 323.063 3 -0.913 1 -1.975 6 1.5 2 323.053 2 -0.940 2 1.575 6 -0.8 3 323.102 1 -0.878 9 1.224 4 0.8 4 323.047 3 -0.861 6 -1.075 6 0.6 5 323.018 3 -0.870 3 1.775 6 0.3 6 323.019 9 -0.824 8 1.424 4 0.8 7 323.029 -0.867 1.924 4 1.2 8 323.052 -0.844 2.024 4 1.1 RMSE 1.7 1.0 从表 1中可得,姿态角度误差值偏航角约为1.7°,俯仰角误差约1.0°,主要原因在于偏航角主要靠对目标深度的鉴别力,而实际物距相对目标的比值大,故系统对偏航角的分辨力差。下面按照输入参数对模型进行误差分析与仿真。
4.2 误差分析
从模型(2)分析
$$ \left\{ \begin{align} & \psi =f(l, {{x}_{1}}, {{y}_{1}}, {{x}_{2}}, {{y}_{2}}, f, \alpha , \beta ) \\ & \phi =g(L, {{x}_{1}}, {{y}_{1}}, {{x}_{2}}, {{y}_{2}}, f, \alpha , \beta ) \\ \end{align} \right. $$ (3) 下面逐一分析关键模型参数对姿态角的影响。
1) 分析经纬仪指向误差对姿态角误差的影响。以表 1中经纬仪的测角数据为基准,按照目前设备的指向精度为指标参考,左右放缩0.3°为极限标准,分别以光轴指向的方位角和俯仰角2种情况进行分析,经纬仪指向误差对姿态角的测量误差趋势如图 4所示。
从图 4可知,测角精度对整个姿态结果有一定的影响,以目前的指向精度指标不超过0.3°为依据,对姿态角的影响不超过0.3°,光轴指向的方位角测角误差对偏航角影响大于俯仰角; 光轴指向的俯仰角测角误差对俯仰角的影响则大于偏航角。
2) 分析作用距离对姿态角误差的影响。从模型上分析,对作用距离敏感性较强的是偏航角,故作用距离对姿态角的影响主要以偏航角展开,作用距离对姿态角误差的影响如图 5所示。
从图 5中可以看出,作用距离对姿态角误差影响比较大,当横轴比值为4 800时,则姿态角绝对误差可达1°,当比值为7 200时,绝对误差可达2°。
3) 分析像点判读误差对姿态角的影响。以文中投影轴对称目标试验为基础,物距大约为1 700 m左右,在此物距及其它系统参数条件下,以表 1中的某一组数据为基础,2个端点像点反向移动下图中横轴的像素数,像素判读误差对姿态角误差影响如图 6所示。
从图 6可知,像素判读误差对姿态角误差影响占绝对比重,故在测量中,尽量利用目前比较成熟的亚像素定位精度技术,提高特征像点定位精度。
5 结论
文章提出了直线透视投影的2种形式,以长度已知的特征直线为研究对象,通过直线透视投影,可直接获取像长,或在某等效物面透视投影得到等效物长。以此为基础,通过像机内参数和外参数建立了投影轴对称的姿态测量模型; 并以炮管试验为依托,获得序列图像和相对真值,对透视算法进行了数据验证,结果为在试验设置的条件下投影轴对称姿态精度偏航角约为1.7°,俯仰角精度约为1.0°; 最后对算法进行了误差分析及实验仿真,分析了关键因素对姿态角误差的影响。
对于靶场姿态测量,文章的算法简单、方便,不需要3D建模及测试站点信息,测试精度满足靶场单站测姿需求,且该算法同样适用于非投影轴对称目标,为靶场姿态测量提供了一种新的思路和方法。
-
表 1 算法结果
单位(°) Table 1 Results of algorithm
α β 偏航绝对误差 俯仰角误差 1 323.063 3 -0.913 1 -1.975 6 1.5 2 323.053 2 -0.940 2 1.575 6 -0.8 3 323.102 1 -0.878 9 1.224 4 0.8 4 323.047 3 -0.861 6 -1.075 6 0.6 5 323.018 3 -0.870 3 1.775 6 0.3 6 323.019 9 -0.824 8 1.424 4 0.8 7 323.029 -0.867 1.924 4 1.2 8 323.052 -0.844 2.024 4 1.1 RMSE 1.7 1.0 -
[1] 张三喜, 姚敏, 孙卫平.高速摄像及其应用技术[M].北京:国防工业出版社, 2006:27-34. Zhang Sanxi, Yao Min, Sun Weiping.High speed photogrammetry and application[M]. Beijing:National Defence Industry Press, 2006:27-34.
[2] 张三喜, 张伟光, 李宏凯, 等.弹道特征参数摄像测量[M].北京:国防工业出版社, 2014: 1-15, 110-150. Zhang Sanxi, Zhang Weiguang, Li Hongkai, et al. Ballistic characteristic parameters of vision measurement[M]. Beijing:National Defence Industry Press, 2014: 1-15, 110-150.
[3] 王之卓.摄影测量原理[M].武汉:武汉大学出版社, 2007. Wang Zhizhuo.The principles of photogrammetry[M]. Wuhan:Wuhan University Press, 2007.
[4] 于起峰, 孙祥一, 陈国军.用光测图像确定空间目标俯仰角和偏航角的中轴线法[J].国防科技大学学报, 2000, 22(2):15-19. doi: 10.3969/j.issn.1001-2486.2000.02.004 Yu Qifeng, Sun Xiangyi, Chen Guojun.A new method of measuring the pitching and yaw of the axes symmetry object through optical images[J]. Journal of National University of Defense Technology, 2000, 22(2):15-19. doi: 10.3969/j.issn.1001-2486.2000.02.004
[5] 赵汝进, 刘恩海, 张文明, 等.一种基于弱透视成像模型的目标姿态测量方法[J].光子学报, 2014, 43(5):138-143. http://d.wanfangdata.com.cn/Periodical/gzxb201405024 Zhao Rujin, Liu Enhai, Zhang Wenming, et al.Measurements of 3D pose of objects based on weak perspective model[J]. Acta Photonica Sinica, 2014, 43(5):138-143. http://d.wanfangdata.com.cn/Periodical/gzxb201405024
[6] 王鲲鹏, 张小虎, 于起峰.基于目标特征点比例的单站图像定姿方法[J].应用光学, 2009, 30(6):974-978. doi: 10.3969/j.issn.1002-2082.2009.06.018 Wang Kunpeng, Zhang Xiaohu, Yu Qifeng.Measuring cooperative targets' pose based on proportions of feature points[J]. Journal of Applied Optics, 2009, 30(6): 974-978. doi: 10.3969/j.issn.1002-2082.2009.06.018
[7] Fischler M, Bolles R.Random sample consensus: a paradigm for model fitting with applications to Image analysis and automated cartography[J]. CACM, 1981, 24:381-395. doi: 10.1145/358669.358692
[8] Fei Wang, Caigui Jiang, Nanning Zheng, et al.Camera pose estimation based on angle constraints[J]. Advances in Visual Computing Pt 1, 2010, 6453:96-107. http://www.wanfangdata.com.cn/details/detail.do?_type=perio&id=CC0210472621
[9] Kneip L, Scaramuzza D, Siegwart R.A novel parametrization of the perspective-three-point problem for a direct computation of absolute camera position and orientation[J]. CVPR, 2011, 42(7):2969-2976. http://cn.bing.com/academic/profile?id=845bc0fef32db8abdc09a30d888387cb&encoded=0&v=paper_preview&mkt=zh-cn
[10] 王晓明, 乔彦峰, 宋立维, 等.用单站光电雷达一体化系统测量目标三维姿态[J].光学精密工程, 2011, 19(8): 1779-1786. Wang Xiaoming, Qiao Yanfeng, Song Liwei, et al.Measurement of three-dimensional attitude by single opto-electrical and radar integration instrument[J]. 2011, 19(8): 1779-1786.
-
期刊类型引用(4)
1. 钟志,王琛,刘磊,孙岩,刘彬,单明广. 数字全息声场成像测量技术综述(特邀). 激光与光电子学进展. 2024(24): 11-24 . 百度学术
2. 席锋,秦华锋,胡莉,林睿. 可视化聚焦纹影系统实现流场中的三维扰动成像. 光学学报. 2021(09): 90-95 . 百度学术
3. 陈水桥,程诗卓,郭鹍,陆子毅,许熠辉. 非均匀介质驻波声场纹影法成像及其声速测量的改善. 实验室研究与探索. 2020(12): 46-50 . 百度学术
4. 罗劲明,薛凌峰,郑景辉,曾锦富,李子文,纪桂彬. 空气折射率梯度分布的可视化实验. 物理实验. 2018(01): 19-21+28 . 百度学术
其他类型引用(2)