Adaptive center extraction method for reflective surface stripes of nuclear fuel rods
-
摘要: 针对水下检测中激光条纹中心难以准确提取的问题,提出了一种适用于水下核燃料棒反光表面的条纹自适应中心提取方法。根据检测环境中存在水体散射及物体表面高反光的特点,去除水下噪点、反光噪点,实现激光条纹分割提取;充分利用BP神经网络曲线拟合及由光条几何信息生成的自适应卷积模板,实现反光区域的轮廓与灰度分布修正,使光条截面灰度分布符合高斯分布;经灰度重心法在光条截面方向实现激光条纹中心的亚像素精度定位与提取。实验结果表明:该方法有效地解决了被测物体反光表面光条中心线不连续、噪点多的问题,点云三维重建误差在0.2 mm以内,保证了条纹中心提取的精度与稳定性,满足核燃料棒水下检测工程要求。Abstract: In order to achieve accurate extraction of the center of laser stripes during the underwater detection of nuclear fuel rods, an self-adaptive stripes center extraction method for reflective surface of underwater nuclear fuel rods was proposed. According to characteristics of water scattering and object surface high reflections in detection environment, the underwater noise points and reflective noise points were removed to realize segmentation and extraction of laser stripes; the curve fitting of BP neural network and adaptive convolution template generated from light bar geometry information were utilized to realize contour and gray distribution correction of reflective region, so that the gray distribution of light bar section conformed to the Gaussian distribution; the subpixel precision location and extraction of laser stripes center were realized in light bar section direction by gray centroid method. The experimental results show that this method can effectively solve the problems of discontinuous center line and many noise points of reflective surface light bar of measured object. The 3D reconstruction error of point cloud is within 0.2 mm, which ensures accuracy and stability of stripes center extraction and meets the engineering requirements of underwater detection of nuclear fuel rods.
-
引言
核电站燃料组件受水下工作环境、装配应力和热应力等因素的影响,在工作中产生局部变形等问题,因此,核电站水下核燃料棒的高精度检测与维护是其安全运行的重要保障[1]。由于水下检测条件恶劣,水下核燃料棒高精度三维测量面临着巨大的挑战。基于线激光扫描的单目视觉测量方法采用单目摄像机在被测物表面做左右方向的扫描运动,获取线激光条纹信息,通过提取激光条纹中心,将其转换为三维点云坐标,实现被测物尺寸的高精度测量。水下检测中的激光条纹照射质量、水下检测环境和待测物表面特性都会对摄像机采集的光条图像造成影响[2],从而给中心线的提取带来一系列问题。因此,如何精确快速地提取光条中心线,是保证整个检测系统测量精度的关键一步。
近年来,国内外学者提出了许多条纹中心提取方法[3-4],主要有几何法[5]、极值法[6]、骨架提取法[7]、高斯拟合法[8]、方向模板法[9]、灰度重心法[10]等。极值法运算速度快,但若光条出现多个极值,定位精度会明显降低;骨架提取法方法简单,但其精度受环境影响大。田庆国[11]提出基于轮廓线多边形提取方法,可快速定位光带横截面方向并进行中心提取;方向模板法稳定性较弱,中心提取效果一般,王泽浩[12]提出自适应方向模板法,提高了方向模板的提取稳定性;高世一[13]提出变边限高斯拟合提取激光条纹中心线法,可适应条纹宽度进行高斯拟合;吴家勇[14]针对灰度梯度特性,提出了梯度重心法,有效提取了光条中心;Steger[15]基于Hessian矩阵得到光条横截面上一阶导数零点位置,求得光条纹中心线的亚像素位置,其考虑了光条几何特性,定位精度高,但无法解决光条中心多极值的问题,且运算速度慢,无法满足实时测量需求;灰度重心法考虑了光条灰度特性,运算快,熊会元[16]提出应用灰度梯度计算光条法线方向,在法线方向上应用灰度重心法精确提取光条中心的方法,解决了被测物体表面曲率变化大的问题;程鑫[17]结合Hessian矩阵对光条的中心进行定位,利用高斯曲线准确拟合出激光条的中心。以上算法提高了光条中心提取的速度及鲁棒性,但对于提取水下高反光表面光条中心的问题未能很好解决。
基于上述分析,本文提出了一种反光表面条纹自适应中心提取算法,基于光条几何特性自适应修正高反光区域轮廓,结合图像灰度卷积处理方法自适应修正高反光区域灰度分布,经灰度重心法确定中心点的亚像素坐标,实现了水下核燃料棒表面激光条纹中心的高精度提取。该方法可以有效地减少水下噪声及核燃料棒反光影响,准确、快速地提取激光条纹中心,控制三维重建精度在0.2 mm以内,满足核燃料棒变形测量精度0.3 mm的需求。
1 水下核燃料棒线激光条纹图像分析
当激光器投影到物体表面,将形成一定宽度的激光条纹,其光强从条纹中心展开,满足高斯分布。其条纹截面灰度值分布曲线的表达式为
$$ G\left(x\right) = \dfrac{S}{\sqrt{2{\text{π}} \sigma }}·\exp\left[-\dfrac{{\left(d-\mu \right)}^{2}}{2{\sigma }^{2}}\right]$$ (1) 式中:S为灰度值的幅值;σ为标准差;μ为光条截面坐标;d为光条中心坐标。
因激光器自身质量、测量环境及被测量物体材质的不同,单目摄像机所采集的激光条纹灰度分布差异性较大,为此,截取核燃料棒原始图像中激光条纹部分,绘制光条左部和中部截面的灰度分布曲线,见图1所示。
根据图1分析可以得到原始激光条纹图像具有以下特征:1) 光条边界附近存在水下环境噪声干扰;2) 光条截面灰度极值不同,截面宽度存在差异;3) 光条中间部分存在高反光区域,轮廓改变,灰度分布不满足近似高斯分布。
通过以上特征可以得到,受水下测量环境影响,获取的激光条纹图像存在大量噪声,影响激光条纹分离提取;受物体表面反光特性影响,光条中部截面处存在多灰度极值的情况,靠近光条中心灰度值迅速增加;受金属镜面反光特性影响,条纹中心出现垂直方向的反光噪点,通过调整图片曝光时间及拍摄角度可以减轻;通过传统提取中心算法难以获得精确激光条纹中心,中心线提取依赖光条中灰度分布符合高斯分布的截面信息。
文中出现较多物理量,主要分为3类。第1类是像素灰度值,其中ω表示像素点经预处理的灰度值;ω′表示像素点经自适应阈值提取的灰度值;ω″表示像素点经过灰度修正的灰度值。第2类是灰度分布,其中Tn表示灰度修正卷积模板;G(i,j)表示光条所在矩形内的点集。第3类是光条几何特征,其中wn表示激光条纹宽度;kv表示光条轮廓的切线方向;kn表示光条的截面方向。
2 激光条纹中心提取
2.1 图像去噪及光条初步提取
实际图像中因其他因素产生的噪声,需要通过图像去噪将其消除。通过对图像中噪声研究发现,水下核燃料图像中的噪声主要分为两种:一是孤立噪点或者由几个噪点组成的假光点;二是沿核燃料棒上下边缘的线状反光噪声。通过滤波方法及卷积运算消除噪声,保证对激光条纹区域提取的精确性。
1) 首先利用中值滤波处理图像,通过在噪点周围定义一个5×5的邻域窗口,对窗口中像素点灰度值进行升序排列,取灰度值的中值作为滤波结果,可以去除水下核燃料棒激光条纹图像中的椒盐噪点。
2) 对原始图像进行全局阈值的二值化处理,根据原始图像选择合适的灰度阈值Ct,计算实现图像二值化:
$$\omega (\mu ,\nu ) = \left\{ {\begin{array}{*{20}{c}} {1,\omega \left( {\mu ,\nu } \right) \geqslant {C_{{t}}}} \\ {0,\omega \left( {\mu ,\nu } \right) \leqslant {C_{{t}}}} \end{array}} \right.$$ (2) 式中ω(μ,ν)表示二值化后的光条在坐标(μ,ν)处的灰度值。
在灰度值非零的点上利用3×3模板去除噪点,模板如图2所示,a1~a8分别对应图像中的每个像素的位置。
将该卷积模板在图像上移动,根据(3)式计算判定该点是否为噪点:
$$A = \sum\limits_{r = 0}^8 {{{\left( {1 - {a_r}} \right)}^2}} $$ (3) $$\omega (\mu ,\nu ) = \left\{ {\begin{array}{*{20}{c}} {1,A \leqslant 4} \\ {0,A > 4} \end{array}} \right.$$ (4) 通过对点(μ,ν)的A值进行判断,去除图像中的孤立噪点和沿核燃料棒上下边缘的反光噪点。将去噪图像与原始图像各像素灰度值相乘,获得具有原始灰度信息的去噪激光图像,最后使用高斯滤波平滑图像。
3) 根据图像灰度值,实现激光条纹的自适应阈值提取。从垂直激光平面方向开始扫描,寻找包含像素点的灰度值为255的行。当第一次检测到时,记该点为(imin,jmin),最后一次检测到时,记该点为(imax,jmax),框选出包含光条位置的矩形,矩阵宽度为wd。则光条所在的矩形内点集G(i,j)为
$$ \begin{split} \Bigg\{ G(i,j)\Bigg|& {i_{\min }} \leqslant i \leqslant {i_{\max }},\dfrac{{{j_{\min }} + {j_{\max }} - {w_{\rm{d}}}}}{2} <j < \\ & \dfrac{{{j_{\min }} + {j_{\max }} + {w_{\rm{d}}}}}{2} \Bigg\} \end{split} $$ (5) 根据每列像素灰度值对该光条截面的不同影响程度确定阈值,选择使用基于梯度的自适应行阈值法在矩形内计算每列的阈值。如图3所示,将激光条纹图像中任一列的灰度分布抽象为两条一次函数:
计算两像素点间灰度梯度Vmn:
$${V_{mn}} = \left| {{\omega _{mn}} - {\omega _{(m - 1)n}}} \right|$$ (6) 式中ω(m,n)是点(μ,ν)在图像第m行n列的灰度值。
计算每行灰度梯度的平均值Bn:
$${B_n} = \dfrac{{\displaystyle\sum\limits_{m = 2}^M {{V_{mn}}} }}{{D - 1}}$$ (7) 式中D为光条大致宽度。
在进行测量时,D为25个像素。通过下式判断点(μ,ν)是否属于光条有效点:
$${g_n} = 1 - \dfrac{{{B_n} \times D}}{{{G_{\max }}}}$$ (8) $$ {\omega' }(\mu ,\nu )=\left\{\begin{array}{c}\omega (\mu ,\nu ),\omega (\mu ,\nu )\geqslant {g}_{n}·{G}_{\max}\\ 0,\omega (\mu ,\nu )<{g}_{n}·{G}_{\max}\end{array}\right.$$ (9) 式中:gn表示阈值界限系数;Gmax表示每行灰度的最大值;ω'(μ,ν)表示自适应阈值提取的光条在点(μ,ν)处的灰度值。
该方法能使光条的提取阈值根据列像素自适应变化,快速将激光从环境背景中提取,图4(a)为经自适应分割的光条图像。通过图4(b)分析,光条附近噪声被去除,提取出的光条图像边界明显,保证了提取精度。
2.2 光条轮廓修正
提取的光条已从图像背景分割,但由于反光现象,激光条纹在被测物体表面的轮廓发生改变,此时直接进行光条中心线提取无法达到精度要求。为解决这一问题,选取灰度分布满足高斯分布的光条截面端点,采用3层BP神经网络对所选坐标点进行曲线拟合,拟合出两条激光条纹轮廓,对光条进行进一步的修正提取。
如图5所示,BP神经网络设定输入层结点为X,隐藏层节点为h,输出层节点为Y,输入层和输出层节点数为1,隐藏层的节点数C为2。设定wic为输入层到隐层第c个节点之间的连接权值,ψc表示隐层第c个节点的阈值;woc为隐层第c个节点到输出层之间的连接权值,θ表示输出层节点的阈值;隐层输入变量为hic,c=1,2,隐层输出变量为hoc,c=1,2。
隐层激活函数fh选用(10)式Sigmoid函数,输出层激活函数fo则选用purelin函数。
$${f_{{h}}}(x) = \dfrac{1}{{1 + \exp \left( { - x} \right)}}$$ (10) 隐层的第c个节点的输入为
$${h_{ic}} = {w_{ic}}X - {\psi _c}$$ (11) 隐层的第c个节点的输出为
$${h_{oc}} = {f_{{h}}}\left( {{w_{ic}}X - {\psi _c}} \right)$$ (12) 输出层节点的输入为
$${y_i} = {w_{oc}}{h_{oc}} - \theta = {w_{oc}}{f_{{h}}}\left( {{w_{ic}}X - {\psi _c}} \right) - \theta $$ (13) 输出层节点的输出为
$${y_{{o}}} = {f_{{o}}}\left( {{y_i}} \right) = {f_{{o}}}\left[ {{w_{oc}}{f_{{h}}}\left( {{w_{ic}}X - {\psi _c}} \right) - \theta } \right]$$ (14) 设定Y(k)为第k个点的纵坐标,对图像中提取的总数为K的像素点拟合轮廓,在网络反向传播时神经网络得到的轮廓位置误差为
$${E^{\left( t \right)}} = \dfrac{1}{2}\sum\limits_{k = 1}^K {{{\left( {{y_{{o}}}^{\left( t \right)}\left( k \right) - Y\left( k \right)} \right)}^2}} $$ (15) 式中yo(t)(k)为神经网络权值在第t次调整后得到的第k个点的纵坐标。
根据Levenberg-Marquardt最优化算法调整,得到最终神经网络权值。训练直到网络输出的误差减少到给定误差,或进行到预先设定的训练次数时,可以停止训练。设定目标误差为0.01,设定最大训练次数为1 000次,训练数据选取各行两端的非高反光区域像素坐标点,确定其为曲线轮廓拟合的真实值,基于条纹轮廓真实值进行预测,最终得到激光条纹的拟合曲线如图6所示。
分别提取光条两边有效像素点进行轮廓拟合,可以获得经过轮廓修正的激光条纹图像,如图7所示。
如图8所示,两组数据分别为轮廓修正前后的激光条纹各行宽度,因反光干扰,修正前条纹各行宽度变化较大。通过BP神经网络对激光条纹的轮廓进行拟合,修正表面反光造成的光条宽度变化的部分,解决了激光条纹轮廓变形问题。
2.3 基于自适应卷积的灰度修正
激光条纹反光部分轮廓已经修正,但各像素灰度值仍未改变。此时若对光条进行中心线提取,反光区域将存在多极值点的情况。本文方法通过设定自适应卷积模板修正光条灰度分布,利用条纹宽度信息生成模板对图像进行卷积运算,获得经灰度分布正常的激光条纹图像。因为线激光照射在被测物体表面后其灰度分布近似符合高斯分布,所以灰度修正系数将通过高斯函数设定。同一列中,像素修正系数由中部向列两边依次递减,激光条纹图像中任意一点p灰度修正系数表示为
$$\begin{split}& {f}_{p}\left({w}_{n},{m}_{p},{m}_{\min},\sigma \right) = \dfrac{\delta }{\sqrt{2{\text{π}} \sigma }}\cdot \\ &\quad\quad\exp\left\{-\dfrac{{\left[{m}_{p}-\left({m}_{\min}+\dfrac{{w}_{{n}}}{2}\right)\right]}^{2}}{2{\sigma }^{2}}\right\}\end{split}$$ (16) 式中:wn(n=0,1,…,N−1)为经过轮廓修正的激光条纹图像中点p所在第n列的非零灰度值像素个数,即光条带宽;N为含有非零灰度值的总列数,表示激光条纹长度;mp为点p所在行数;mmin为点p所在的n列中第1个非零像素点的行数;б为高斯函数标准差,取值为4;δ为固定系数,取值为0.95。
因为点p的灰度修正系数已经求得,所以激光条纹上的点p修正灰度值如(17)式所示:
$$ {\omega'' }\left({\mu }_{p},{\nu }_{p}\right)={f}_{p}\left({w}_{n},{m}_{p},{m}_{\min},\sigma \right)·{\omega '}\left({\mu }_{p},{\nu }_{p}\right)$$ (17) 式中:ω″(μp,νp)为点(μ,ν)经过灰度修正后的灰度值。
已知任意点的灰度修正系数后,可设计激光条纹图像中任意列的灰度修正卷积模板。卷积模板的行数设为激光条纹宽度wn,列数设为1,此时激光条纹的每个截面都可生成与其截面宽度相适应的灰度修正卷积模板Tn(n= 0,1,…,N−1)。由(16)式知fp的范围在(0~1)之内,且根据光条截面宽度wn,fp在模板中间时取最高值,然后依次向两边递减。激光条纹图像中任意列n的灰度修正卷积模板为
$${T_n} = {\left( \begin{array}{c} {f_1} \\ {f_2} \\ \vdots \\ {f_{{M_n} - 1}} \\ {f_{{M_n}}} \\ \end{array} \right)_{{M_n} \times 1}}$$ (18) 式中Mn为激光条纹第n列含有非零灰度值的总行数。
根据激光条纹宽度生成自适应灰度修正卷积模板,在光条原始灰度分布矩阵I(β,α)上自左向右进行滑动运算,可以得到激光光条修正后的灰度分布:
$$ {{I'}}(\beta ,\alpha ) = {\left( {\begin{array}{*{20}{c}} 0&\cdots& 0&{{f_{m1}} \cdot G(m,1)}&0&\cdots&0\\ \vdots& & & & & &\vdots \\ 0& &\vdots & \vdots & \vdots &&0\\ {{f_{11}} \cdot G(1,1)}&& & \cdots & & &{{f_{\alpha 1}} \cdot G(\alpha ,1)}\\ \vdots && \cdots &{{f_{mn}} \cdot G(m,n)}& \cdots && \vdots \\ {{f_{1{\beta _1}}} \cdot G(1,{\beta _1})}&& & \cdots & & &{{f_{\alpha {\beta _\alpha }}} \cdot G(\alpha ,{\beta _\alpha })}\\ 0&& \vdots & \vdots & \vdots&&0\\ \vdots& & & & && \vdots \\ 0&\cdots&0&{{f_{m{\beta _m}}} \cdot G(m,{\beta _m})}&0&\cdots&0 \end{array}} \right)_{\alpha \times \beta }} $$ (19) 式中:α为光条原始图像中含有非零灰度值的总列数;βm为第m列中含有非零灰度值的总行数,且1≤m≤α;β为激光条纹各列中含有非零灰度值总行数的最大值。
对经轮廓修正的水下核燃料棒扫描图像进行卷积灰度修正,其结果如图9(a)所示。
激光条纹反光部分灰度值过高,灰度分布改变,因此通过自适应卷积模板处理激光条纹图像灰度,对中间高反光区域进行灰度值降低使其满足高斯分布规律,如图9(b)所示,与图4(b)对比所见,获得了良好效果。
2.4 基于轮廓法线的光条中心提取
采用灰度重心法对完成修正的光条图像进行激光条纹亚像素中心提取。因为核燃料棒是圆柱体,所以线激光平面与核燃料棒表面相交形成的激光条纹轮廓通过单目摄像机采集后成曲线轮廓。对于非直线激光条纹的中心提取,需要在其光条截面方向进行。如图10所示,因为光条轮廓线已确定,所以可以通过计算其轮廓线上任一像素点的切线kv,确定光条的截面方向kn。
取轮廓线上一点为q,通过光条轮廓线在q点的一阶导数可求得该点在光条轮廓上的切线斜率kv。此时易得出经q点的光条截面方向斜率kn:
$${k_n} = - \dfrac{1}{{{k_v}}}$$ (20) 光条截面方向线条经过q点后向前后方向延长,直至抵达光条边界像素点,自适应光条宽度。通过判断像素点所在的行向量与列向量是否与斜率kn同时相交,确定其是否被光条截面方向线条经过。将符合条件的像素点记为一组像素点集合Xq={xh| xh=(μh,νh),h=1,2,…,H},其中H为光条截面方向斜率kn所经过的像素点总数。q点所在截面的亚像素中心通过在该像素点集合Xq内使用灰度重心法求解:
$$ {q_c}\left( {{x_q},{y_q}} \right) = \left\{ {\begin{array}{*{20}{c}} {{x_q} = \dfrac{{\displaystyle\sum\limits_{h = 1}^H {{\mu _h} \cdot \omega ''({\mu _h},{\nu _h})} }}{{\displaystyle\sum\limits_{h = 1}^H {\omega ''({\mu _h},{\nu _h})} }}}\\ {{y_q} = \dfrac{{\displaystyle\sum\limits_{h = 1}^H {{\nu _h} \cdot \omega ''({\mu _h},{\nu _h})} }}{{\displaystyle\sum\limits_{h = 1}^H {\omega ''({\mu _h},{\nu _h})} }}} \end{array}} \right. $$ (21) 式中:xq为q点所在光条截面的亚像素中心横坐标;yq为纵坐标。
3 实验及结果分析
采用Visio studio 2013作为软件开发平台、结合OpenCV 3.0库及PCL 1.8.0点云库实现文中方法。如图11所示,采用的水下核燃料棒线结构光测量平台,搭载Mako G-507 PoE 工业相机,其分辨率为2 464(H)× 2 056(V)像素,像素尺寸为3.45 μm×3.45 μm;激光器波长为520 nm。通过经水下标定的水下核燃料棒测量系统对核燃料棒尺寸进行测量。
图12(a)~12(c)分别选用传统灰度重心法、基于最小二乘拟合中心提取算法[18]和文中算法进行激光条纹中心提取。从图12(a)可以看出,传统灰度重心法提取的光条中心线条受反光影响,光条中心点存在前后错开的现象,线条不连续;图12(b)中基于最小二乘拟合中心提取算法对光条进行提取,光条中心线条连续性增加,但由于其提取的中心点与拟合中心点重合不足,存在线条中心不唯一的情况,容易产生噪点;图12(c)为文中算法,算法充分利用了光条的有效数据,光条中心线条连续性较好,更客观地反映了光条中心分布情况。
使用3种算法提取激光条纹中心线后生成点云进行对比。图13(a)点云为传统灰度重心法生成,图13(b)点云为基于最小二乘拟合中心提取算法生成,图13(c)点云为文中算法生成。结构光中心线提取不准确,将导致通过图像坐标点求解出的三维坐标发生较大偏差,产生点云离群现象。可以看出,通过传统灰度重心法和基于最小二乘拟合中心提取算法得到的点云含有较多的离群噪点,被测物体各部分的反光导致多数截面光条中心线条出现断点和噪点,这些会影响点云测量的准确性;通过文中算法解决因反光造成的结构光中心线提取不准的现象,可以明显看到所获得的点云大量噪点被消除,圆柱点云表面更加光滑。
通过对10组测量提取的激光条纹中心线生成的点云进行直径测量,与核燃料棒人工采用游标卡尺测量的结果进行比对。表1所示为10组拟合直径统计结果。针对水下核燃料棒检测要求,测量数据应保持高精度与稳定性,传统灰度重心法在水下测量中稳定性较好,但是其测量数据误差较大,基于最小二乘拟合中心提取算法的测量数据的最大误差和平均误差有所减少,但是其稳定性不足。文中算法相较于传统灰度重心法和基于最小二乘拟合中心提取算法平均误差明显降低,分别为97%和89%,测量稳定性分别提高9%和33%,测量效果良好,拟合圆柱的误差在0.2 mm以内。可以看出,文中提出的算法能够有效减少核燃料棒水下测量的噪声,具有较好的稳定性和精确性。
表 1 核燃料棒测量结果Table 1. Measurement results of nuclear fuel rodmm 方法 灰度重
心法基于最小二乘拟合
中心提取算法文中算法 测量值 9.397 9.443 9.528 9.381 9.482 9.822 9.731 9.544 9.636 9.489 9.763 9.732 9.478 9.761 9.548 9.618 9.632 9.586 9.582 9.887 9.736 9.721 9.464 9.622 9.491 9.834 9.612 9.510 9.552 9.841 最大误差 0.2890 0.2170 0.1710 平均误差 0.1302 0.0338 0.0037 标准差 0.1214 0.1633 0.1102 4 结论
针对水下核燃料棒检测过程中激光条纹受水下环境噪声及反光影响的问题,本文根据激光条纹特征提出了结合BP神经网络轮廓拟合与卷积运算的自适应激光条纹亚像素中心提取方法。文中算法通过对核燃料棒反光部分的几何特性与灰度特征进行自适应修正,实现了水下核燃料棒表面激光条纹中心线的高精度提取。实验证明,使用该方法实现了在水下测量650 mm处燃料棒尺寸误差控制在0.3 mm以内。与其他算法进行比较,平均误差分别降低97%和89%,稳定性分别提高9%和33%,验证了该算法测量的精确性和鲁棒性。文中算法对于核燃料棒尺寸的准确测量,保证核燃料组件安全运行具有重要意义。
-
表 1 核燃料棒测量结果
Table 1 Measurement results of nuclear fuel rod
mm 方法 灰度重
心法基于最小二乘拟合
中心提取算法文中算法 测量值 9.397 9.443 9.528 9.381 9.482 9.822 9.731 9.544 9.636 9.489 9.763 9.732 9.478 9.761 9.548 9.618 9.632 9.586 9.582 9.887 9.736 9.721 9.464 9.622 9.491 9.834 9.612 9.510 9.552 9.841 最大误差 0.2890 0.2170 0.1710 平均误差 0.1302 0.0338 0.0037 标准差 0.1214 0.1633 0.1102 -
[1] 陈小砖, 李硕, 任晓利. 中国核能利用现状及未来展望[J]. 能源与节能,2018,155(8):58-61. doi: 10.3969/j.issn.2095-0802.2018.08.027 CHEN Xiaozhuan, LI Shuo, REN Xiaoli. Present situation and future prospect of nuclear energy utilization in china[J]. Energy and Energy Conservation,2018,155(8):58-61. doi: 10.3969/j.issn.2095-0802.2018.08.027
[2] 孙剑峰, 刘迪, 葛明达, 等. 条纹管激光雷达水下目标图像预处理算法[J]. 中国激光,2013,40(7):211-214. SUN Jianfeng, LIU Di, GE Mingda, et al. Image pre-processing algorithm of underwater target for streak tube imaging lidar[J]. Chinese Journal of Lasers,2013,40(7):211-214.
[3] 李莹莹, 张志毅, 袁林. 线结构光光条中心提取综述[J]. 激光与光电子学进展,2013,50(10):13-22. LI Yingying, ZHANG Zhiyi, YUAN Lin. Survey on linear structured light stripe center extraction[J]. Laser & Optoelectronics Progress,2013,50(10):13-22.
[4] 贺俊吉, 张广军. 结构光三维视觉检测中光条图像处理方法研究[J]. 北京航空航天大学学报,2003,29(7):593-597. doi: 10.3969/j.issn.1001-5965.2003.07.007 HE Junji, ZHANG Guangjun. Study on method for processingimage of strip in structured-light 3D vision measuring technique[J]. Journal of Beijing University of Aeronautics and Astronautics,2003,29(7):593-597. doi: 10.3969/j.issn.1001-5965.2003.07.007
[5] RIOUX M, BIRD T. White laser, synced scan (3D scanner)[J]. IEEE Computer Graphics and Applications,1993,13(3):15-17. doi: 10.1109/38.210485
[6] 李中伟, 王从军, 史玉升. 一种结合梯度锐化和重心法的光条中心提取算法[J]. 中国图象图形学报,2008,13(1):64-68. doi: 10.11834/jig.20080112 LI Zhongwei, WANG Congjun, SHI Yusheng. An algorithm for detecting center of structured light stripe combining gradient sharpening with barycenter method[J]. Journal of Image and Graphics,2008,13(1):64-68. doi: 10.11834/jig.20080112
[7] 刘枝梅, 邓文怡, 娄小平. 结构光测量系统中光条中心的提取算法[J]. 北京机械工业学院学报,2009,24(1):42-45. doi: 10.3969/j.issn.1674-6864.2009.01.011 LIU Zhimei, DENG Wenyi, LOU Xiaoping. Extraction algorithm of light stripes center in the measurement system of structured light[J]. Journal of Beijing Institute of Machinery,2009,24(1):42-45. doi: 10.3969/j.issn.1674-6864.2009.01.011
[8] 尚雅层, 陈静, 田军委. 高斯拟合亚像素边缘检测算法[J]. 计算机应用,2011,31(1):179-181. doi: 10.3724/SP.J.1087.2011.00179 SHANG Yaceng, CHEN Jing, TIAN Junwei. Sub-pixel edge detection algorithm based on Gauss fitting[J]. Journal of Computer Applications,2011,31(1):179-181. doi: 10.3724/SP.J.1087.2011.00179
[9] 胡斌, 李德华, 金刚, 等. 基于方向模板的结构光条纹中心检测方法[J]. 计算机工程与应用,2002,38(11):42-45. HU Bin, LI Dehua, JIN Gang, et al. New method for obtaining the center of structured light stripe by direction template[J]. Computer Engineering and Application,2002,38(11):42-45.
[10] 崔希君, 杨川, 刘保华, 等. 线性结构光心的自适应迭代提取法[J]. 西安交通大学学报,2007,41(1):73-76. doi: 10.3321/j.issn:0253-987X.2007.01.017 CUI Xijun, YANG Chuan, LIU Baohua, et al. Self-adaptive iterative method of extracting center of linear-structured light stripe[J]. Journal of Xi’an Jiaotong University,2007,41(1):73-76. doi: 10.3321/j.issn:0253-987X.2007.01.017
[11] 田庆国, 葛宝臻, 李云鹏, 等. 利用轮廓线多边形表示实时提取光条中心线[J]. 光学精密工程,2012,20(6):1357-1364. doi: 10.3788/OPE.20122006.1357 TIAN Qingguo, GE Baozhen, LI Yunpeng, et al. Real-time extraction of light stripe central line based on contour polygonal representation[J]. Optics and Precision Engineering,2012,20(6):1357-1364. doi: 10.3788/OPE.20122006.1357
[12] 王泽浩, 张中炜. 自适应方向模板线结构光条纹中心提取方法[J]. 激光杂志,2017,38(1):60-64. WANG Zehao, ZHANG Zhongwei. Adaptive direction template method to extract the center of structured light[J]. Laser Journal,2017,38(1):60-64.
[13] 高世一, 杨凯珍. 变边限高斯拟合提取激光条纹中心线方法的研究[J]. 仪器仪表学报,2011,32(5):1132-1137. GAO Shiyi, YANG Kaizhen. Research on central position extraction of laser strip based on varied boundary gaussian fitting[J]. Chinese Journal of Scientific Instrument,2011,32(5):1132-1137.
[14] 吴家勇, 王平江, 陈吉红, 等. 基于梯度重心法的线结构光中心亚像素提取方法[J]. 中国图象图形学报,2009,14(7):1354-1360. doi: 10.11834/jig.20090719 WU Jiayong, WANG Pingjiang, CHEN Jihong, et al. Method of linear structured light sub-pixel center position extracting based on gradient barycenter[J]. Journal of Image and Graphics,2009,14(7):1354-1360. doi: 10.11834/jig.20090719
[15] STEGER C. An unbiased detector of curvilinear structures[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(2):113-125. doi: 10.1109/34.659930
[16] 熊会元, 宗志坚, 陈承鹏. 线结构光条纹中心的全分辨率精确提取[J]. 光学精密工程,2009,17(5):1057-1062. doi: 10.3321/j.issn:1004-924X.2009.05.019 XIONG Huiyuan, ZONG Zhijian, CHEN Chengpeng. Accurately extracting full resolution centers of structured light stripe[J]. Optics and Precision Engineering,2009,17(5):1057-1062. doi: 10.3321/j.issn:1004-924X.2009.05.019
[17] 程鑫, 凌鹤, 李硕. 汽车焊缝密封胶条的光条中心提取算法研究[J]. 应用光学,2019,40(5):823-828. doi: 10.5768/JAO201940.0502006 CHENG Xin, LING He, LI Shuo. Light bar center extraction algorithm for automotive weld sealant strips[J]. Journal of Applied Optics,2019,40(5):823-828. doi: 10.5768/JAO201940.0502006
[18] 许小进, 咸凯强. 核燃料棒点云圆柱拟合及三维重建方法研究[J]. 机械工程师,2019(11):101-104. XU Xiaojin, XIAN Kaiqiang. Research on point cloud cylinder fitting and 3D reconstruction method of nuclear fuel rod[J]. Mechanical Engineer,2019(11):101-104.
-
期刊类型引用(3)
1. 赵兴龙,单彦虎,储成群,程洪涛,赵林熔. 金属表面强反射条件下的光条中心提取方法. 工具技术. 2024(11): 139-144 . 百度学术
2. 周祥曼,王华,李立军,郑事成,付君健,田启华. 基于改进细化法的线激光中心提取方法. 激光杂志. 2023(09): 70-74 . 百度学术
3. 商执亿,王建华,尹培丽,杜虎兵. 金属表面非相干线结构光条纹中心提取方法. 应用光学. 2022(03): 503-509 . 本站查看
其他类型引用(3)