Bearing defects detection based on standardized sample split
-
摘要: 表面缺陷对轴承的性能和寿命存在严重影响。近年来,深度学习在缺陷检测中发挥了重要的作用,然而对于轴承检测而言,缺陷样本的采集耗时耗力。选择轴承内径作为研究对象,根据轴承的对称性特性提出一种规范化样本拆分方法,可有效扩充轴承样本数据集。分别采用不同的样本处理方法,而后利用ResNet网络训练轴承缺陷检测模型,进行多组对比实验,实验结果表明:直接采用原始图像进行网络训练,检测效果较差,模型的AUC (area under the curve)仅为0.558 0;对原始图像进行样本拆分,训练出的模型检测效果有所提升,其模型AUC提升为0.632 6;将原始图像进行4点透视变换校正后再进行网络训练,检测效果同样有所提升,其模型AUC提升为0.661 3;将原始图像进行透视变换校正且规范化样本拆分后,检测效果最好,其模型AUC增加为0.849 6。Abstract: Surface defects seriously affect the quality and service life of bearings. In recent years, deep learning has played an important role in defects detection, but for bearing detection, the collection of defects samples is time-consuming and labor-consuming. The bearing inner diameter was chosen as the detection object, a method of standardized sample split based on the symmetry of bearing was proposed, which could greatly increase the number of samples. Different sample processing methods were used respectively, and then the bearing defects detection model was trained by ResNet network to carry out several comparative experiments. The experimental results show that the detection effect is worse when the original images are directly used for training, and the area under the curve (AUC) of the model is only 0.558 0; after the samples are split, the trained model detection effect is better, and the model AUC is improved to 0.632 6; after the samples are corrected by four point perspective transformation, the detection effect is better, and the model AUC is increased to 0.661 3; after the original images are corrected by perspective transformation and the standardized samples are split, the detection effect is the best, and the model AUC is increased to 0.849 6.
-
Keywords:
- ResNet network /
- perspective transformation /
- defects detection /
- standardization
-
引言
人脸是现代身份识别技术的主要检测特征之一,在档案管理、安全认证、身份记录中有着广泛的应用。与指纹、血型、虹膜等生物特征不同,捕捉人脸不需要与用户接触以及保持其专注和稳定,因而样本的采集较其他生物特征更加安全与便捷[1]。二维人脸分割与识别已得到广泛、深入的研究,大量研究成果已成功实现转化。三维人脸测量、分割与识别是目前的热点研究问题。
人脸区域分割是指结合人脸信息,将人脸区域分割为不同语义标注的部分。除生物识别外,人脸区域分割在动画人脸设计与合成、皮肤美化与虚拟化妆、年龄性别等高等级特征预测等方面均有较多应用[2]。虽然对于人脸的二维图像分割研究已较为成熟,但二维人脸缺少深度,无法表达完整的人脸信息,像素级分割的准确性仍依赖于人脸姿态、光照等条件。随着计算成像的快速发展,已有多种成像方法用于三维人脸成像,如飞行时间(TOF)法[3-6]、激光扫描法等[6]。飞行时间法是通过激光光源发射脉冲信号到物体表面后按原路径返回,由接收器接收,通过激光的传播时间可以计算得到期望的三维信息[5]。但现有曝光算法对飞行时间测距精度和测量范围影响较大[4-6]。激光扫描法基于立体视觉原理,通过投射激光条纹以及使用相机同步记录反射条纹的形状,计算对应点的深度信息来完成三维测量,但激光设备成本较高,测量速度受限[6]。本文采用基于结构光的三维测量方法,具体采用多频外差结合四步相移正弦结构光的方法,实现三维人脸测量。
相较于二维图像,三维人脸数据中包含的几何信息对光照和姿态不敏感[7-8],其包含更多人脸区域分割所需的信息。2017年,Charles等人提出了直接输入点云进行分割的深度学习网络Pointnet[9]。该网络在每个点上独立学习,解决了三维点云输入的无序性以及旋转性这2个关键问题,但其忽略了局部结构。随后Charles等人提出Pointnet++解决了局部结构问题[10]。2018年,Su等人提出了SPLATNet(sparse lattice networks),将输入点云映射到稀疏晶格上,同样解决了三维数据的无序性和旋转性问题[11]。总体而言,由于三维数据的特殊性,为实现三维数据的分割,通常将三维分割模型设计为多边形网格形式,用于保存三维数据的点云与面片信息。在实际应用时,需要在三维分割网络结构、参数量和性能之间进行折衷。
针对三维人脸分割问题,本文开发了一种基于结构光的三维人脸测量系统,实现了人脸的三维采集,其数据以点云形式存储。进一步地,首先采用保角变换将三维人脸数据预处理为二维数据,然后研究了二维卷积神经网络实现了人脸分割,最后将分割后的结果反映射回三维空间,实现了二维映射-二维网络分割-三维逆映射的三维人脸分割方案。
1 三维人脸测量系统
本文开发的三维人脸测量系统由2台相机与1台商用投影仪组成,如图1所示。
对人脸的三维测量采用多频外差结合4步相移正弦结构光的方法,系统标定采用张正友标定法[12]。
1.1 三维人脸测量系统标定
依据张正友标定法,本文将相机的成像过程表述为
$${Z_c}\left[\!\! \begin{gathered} u \\ v \\ 1 \\ \end{gathered} \!\!\right] = \left[\!\! \begin{gathered} \begin{array}{*{20}{c}} {\dfrac{1}{{{\rm{d}}x}}}&0&{{u_0}} \end{array} \\ \begin{array}{*{20}{c}} 0&{\dfrac{1}{{{\rm{d}}y}}}&{{v_0}} \end{array} \\ \begin{array}{*{20}{c}} 0&0&1 \end{array} \\ \end{gathered} \!\!\right]\left[\!\! {\begin{array}{*{20}{c}} f&0&0&0 \\ 0&f&0&0 \\ 0&0&1&0 \end{array}} \!\!\right]\left[\!\! {\begin{array}{*{20}{c}} R&t \\ 0&1 \end{array}} \!\!\right]\left[\!\! \begin{gathered} {X_w} \\ {Y_w} \\ {Z_w} \\ 1 \\ \end{gathered} \!\!\right]$$ (1) 式中:
$({X_W},{Y_W},{Z_W})$ 为待测人脸在世界坐标系下的坐标;$(u,v)$ 是待测人脸在相机成像平面投影的像素坐标;${\rm{d}}x {\text{、}}{\rm{d}}y$ 是像素的物理尺寸;$({u_0},{v_0})$ 是相机中心点在成像平面上的像素坐标;$f$ 是相机的焦距;$R {\text{、}}t$ 是世界坐标系到相机坐标系的3×3旋转矩阵和3×1平移矩阵;${Z_c}$ 是待测人脸在相机坐标系下的$Z$ 坐标。忽略相机的切向畸变,在(1)式所示的成像模型中引入径向畸变校正,如(2)式所示:$$\left\{ \begin{array}{l} x' = D(x,y) = (1 + {k_1}{r^2} + \cdots + {k_n}{r^{2n}})x \\ y' = D(y,x) = (1 + {k_1}{r^2} + \cdots + {k_n}{r^{2n}})y \\ \end{array} \right.$$ (2) 式中:
${k_1} ,\cdots, {k_n}$ 是径向畸变系数;$(x',y')$ 是实际像平面坐标;$(x,y)$ 是理想像平面坐标;$r$ 是理想像平面坐标到相机中心像平面坐标的距离。相机参数可采用张正友标定法计算[12]。根据光线可逆原理,投影仪可视为反向相机,辅以完成标定的相机,可以实现投影仪的标定[13-14]。最后,根据对极几何原理,实现相机与投影仪的联合标定[15-16]。1.2 三维人脸测量算法
三维人脸测量的关键在于空间中匹配待测点在左右相机中的成像像素点。本文采用多频外差结合4步相移正弦结构光的方法实现上述目标,4步相移正弦结构光如(3)式所示:
$${I_{{i}}}(x,y) \!=\! {I_0}(x,y) + I(x,y) \cdot \cos (\phi (x,y) + \frac{{\text{π}} }{2}(i - 1)),i \!=\! 1,2,3,4$$ (3) 式中:
${I_0}(x,y)$ 是平均背景灰度值;$I(x,y)$ 是正弦条纹幅值;$\phi (x,y)$ 是相对相位;${I_i}(x,y)$ 是第$i$ 次投影图像$(x,y)$ 处的灰度值。4步相移法求解得到的表征人脸三维数据的相对相位,不具有全局唯一性性质。本文采用三频外差法求解具有全局唯一性性质的绝对相位。三频外差法通过对3个频率的正弦结构光图像进行两两相位展开,得到频率更低的相位图像。本文选择的3个正弦结构光的周期分别为$${\lambda _1} = \frac{1}{{36}},{\lambda _2} = \frac{1}{{30}},{\lambda _3} = \frac{1}{{25}}$$ (4) 采用制造精度为5 μm的标定板对本系统进行评价,本系统三维测量精度为0.5 mm。图2为采用本系统进行三维人脸测量的过程。图2(a)为一幅光栅图像,光栅频率为36;图2(b)与2(c)分别为相对相位与绝对相位图,绝对相位采用三频外差法求得[15];图2(d)为三维人脸测量结果,因受遮挡等影响,测量结果中存在一定的孔洞,本文采用孔洞填充算法进行修补[17]。
2 三维人脸分割算法
为解决三维分割网络的复杂性问题,本文采用了迂回策略,即首先采用保角变换将三维人脸数据映射为二维数据,然后采用二维卷积神经网络实现二维人脸分割,最后将二维分割后的结果逆映射回三维人脸。
2.1 基于保角变换的二维人脸数据映射
在欧式空间中,人脸可视为由多个三维点连接而成的曲面,不具有体积。从微分几何与拓扑学角度出发,若一个三维人脸数据等同于一个亏格为零的曲面,则可映射到一个拓扑球面。Gu等人证明了拓扑球面可以采用保角变换无损地映射到一个拓扑圆盘上[18],即从欧式空间的三维曲面到二维平面的映射。
根据保角结构的概念,保角参数化就是将曲面上局部区域映射到复平面上。若采用
$\omega + {\sqrt { - 1} ^*}\omega $ 定义梯度场,采用$\left\{ {{e_1},{e_2}, \cdots ,{e_{2g}}} \right\}$ 表示一组闭合曲线,可由这组曲线连续变换成曲面上所有闭合曲线,求出曲面的同调基,即可将此曲面沿着同调基切割到一个拓扑圆盘。对曲面与曲面上的一个三角面片$[u,v,w]$ ,可用Munkres提出的方法计算同调基[18],再将三角面片$[u,v,w]$ 的闭合方程写作:$$\omega (\partial [u,v,w]) = \omega [u,v] + \omega [v,w] + \omega [w,u] = 0$$ (5) 而对于曲面上的顶点,其梯度场的Laplacian-Beltrami算子均为0,调和方程表示为
$$\Delta \omega (u) = \sum\limits_{[u,v] \in M} {{k_{u,v}}} \omega [u,v] = 0$$ (6) 设
${k_{u,v}}$ 是每条边的权值,若$\alpha $ 与$\beta $ 是对边的角,则有:$${k_{u,v}} = - \frac{1}{2}(\cot \alpha + \cot \beta )$$ (7) 求解(5)~(7)式可得闭合曲面上三维点的参数化坐标。曲面是由离散三维点构成的多个三角面片,这个曲面是不可微的,但可用有限元分段线性函数逼近(等价于用有限元法解Riemann-Cauchy方程)[19]。解得后,可用离散Hodge算子求解保角梯度场,即实现在一个曲面上求解保角映射[20]。从人脸区域分割的角度出发,保角变换可以保证映射到二维平面后,人脸曲面上的任意两条曲线的交角不变[21]。此外,保角变换不受曲面旋转、平移的影响,对不同姿态的同一人脸曲面,其二维映射图像中的人脸特征是一致的。因此,保角变换在人脸各个区域保留了其三维特征。如图3所示,为零亏格人脸曲面参数化后的二维平面域的保角变换结果。本文采用深度学习的方法实现人脸分割,为获得足够的数据量,使用了与本文三维测量系统输出数据格式相同的BJUT三维人脸数据库[22],图3上方三维人脸数据来源于BJUT数据库,下方数据来源于本文系统。
2.2 基于二维CNN的人脸区域分割
区别于直接对三维人脸区域进行分割,本文对经保角变换后的二维人脸映射图像进行分割研究。采用encoder-decoder结构的卷积神经网络来对二维人脸映射图像进行区域分割,具体架构如图4所示。
其中,编码网络由5个卷积层组成,每一个编码器层对应一个解码器层,因此解码器也有5层。编码网络采用卷积加激活以及最大池化(Conv+ReLU+Maxpooling)的结构,编码器对二维人脸映射图像进行卷积产生特征图,部分结果见图5。激活层采用ReLU函数,最大池化层用于实现图像在小空间内的平移不变性,取局部区域中最大值作为该区域的像素值。解码网络采用卷积加上采样(Conv+Upsampling)的结构。解码器将前面编码得到的抽象特征作为输入,逐层上采样恢复为与输入等大小的图像。在解码器将下采样数据恢复时,特征的大小会发生变化,此时必定会产生信息的丢失,本文在网络中加入Ronneberger等人提出的特征融合步骤,在利用浅层的特征时对其进行裁剪,同时使用跳级连接保证上采样恢复的图像特征边缘更加精细[23]。Lu等人通过实验证明了这种跳级结构能使网络对新的数据敏感度降低,提高边缘特征的精细程度[24]。上采样后,本文采用Softmax层对逐个像素求其分割结果,完成二维人脸映射图像的分割,分割结果采用(8)式表示。
$${p_k}({{x}}) = \exp \left( {{a_k}({{x}})} \right)\Bigg/\left( {\sum\limits_{{k^\prime } = 1}^K {\exp } \left( {{a_k}({{x}})} \right)} \right)$$ (8) 式中:
$K$ 是像素分割类别的总数;${p_k}({{{{x}}}})$ 是第k类中像素点${{x}}$ 的分割结果;$a_k ({{x}}) $ 表示在位置${{{{x}}}}$ 处的像素在特征图中第k层的激活值。网络训练中,采用交叉熵作为损失函数,衡量二维人脸映射图像分割结果,如(9)式所示:$$L = - \sum\limits_{i = 1}^n {{y_i}} \log \left( {{{\hat y}_i}} \right)$$ (9) 式中:
$L$ 表示单张图像的损失函数;${y_i}$ 表示样本属于人脸分割区域中第$i$ 类的概率;${\hat y_i}$ 表示不属于第$i$ 类的概率;$n$ 为总类别数,在本文中$n$ 为2。损失函数值越小则表明网络训练的参数越符合训练集中的样本。2.3 三维逆映射
为得到三维人脸的分割结果,本文采用将二维人脸映射图像的分割结果逆映射到三维人脸曲面的方法。保角变换将人脸区域的三维点、面片映射到拓扑圆盘得到二维人脸映射图像,本文在保角变换中增加了建立索引关系的步骤,即建立三维人脸曲面上的三维点与二维人脸映射图像中二维像素点之间的索引关系,如图6所示。
其中图6(a)为人脸曲面网格,图6(b)为网格上一区域,假设三维人脸曲面上某个三角面片为分割区域,该区域由3个带有纹理信息的三维点构成,映射到二维图像平面上为3个二维坐标点,曲面上每个点都记录了其在保角变换下的二维映射坐标。本文遍历曲面以及映射图像即可将二维分割结果一一逆映射回三维曲面上,从而完成三维人脸区域分割。
3 人脸区域分割结果
对于二维CNN分割网络而言,本文系统测量数据量仍不足以满足训练要求。鉴于本文测量三维人脸数据形式以及纹理信息等与BJUT数据库相同,因此本文二维CNN分割网络的训练、测试使用来自BJUT三维人脸数据库的数据以及系统采集的数据,共505个三维人脸数据。BJUT三维人脸数据库共含500个三维人脸数据,其中男女各250人,年龄分布在16~49岁,表情均为中性,数据包含人脸顶点信息、纹理信息以及网格信息。本文对该数据库的所有人脸数据做预处理。首先对杂散点云以及非人脸部位进行手动去除,保留原曲面点云上点的颜色信息,后采用球旋转算法对人脸点云进行曲面重构,最后使用Netfabb软件进行人工孔洞填充后得到只包含眼睛、眉毛、鼻子、嘴唇这4个部位的零亏格曲面[25]。在本文的三维人脸区域分割研究中,将BJUT数据集中9个噪声较多的人脸三维数据进行了剔除,最终得到了496个零亏格三维人脸曲面及其二维映射图像。本文随机将400幅二维映射图像设置为训练集,63幅设置为测试集。
本文实验的操作系统为Windows10,学习框架为Tensorflow,硬件环境CPU为Intel(R)Xeon(R)E5-2630 2.2 GHz×20,内存256 GB;GPU为Nvidia(R)Tesla P100-PCIE-16 GB×3。本文二维CNN分割网络的平均训练时间为33.1 min,91张测试图像分割总用时小于1 s,单个三维人脸曲面保角变换时间约15 s。本文用准确率
${\rm{P}}$ (precision)和交并比IoU评价二维映射图像分割结果,其中${\rm{TP}}$ (true positive)为真正类,${\rm{FP}}$ (false positive)为假正类,${\rm{TN}}$ (true negatibe)为真负类,${\rm{FN}}$ (false negative)为假负类。$${\rm{P}} = \sum\limits_{}^{} {\frac{{{\rm{TP}}}}{{{\rm{TP}} + {\rm{FP}}}}} $$ (10) $${\rm{IoU}} = \sum\limits_{}^{} {\frac{{{\rm{TP}}}}{{{\rm{FN}} + {\rm{TP}} + {\rm{FP}}}}} $$ (11) 部分测试集分割结果如图7所示。其中第1行为4个不同人脸的二维映射图像,第2行为相应的二维映射图像分割结果,第3行为分割准确率(红色为预测部分,蓝色为真值),第4行为IoU结果(蓝色为真值,绿色为预测区域,橘色是相交区域)。
将二维映射图像分割结果根据索引关系一一映射回三维人脸曲面,实验结果如图8所示,可见本文方法能够分割三维人脸曲面中的眉毛、眼睛、鼻子与嘴巴区域。
本文使用PointNet进行对比实验。由于各个三维人脸数据包含点数不同,对试验数据进行了固定点采样。对最远点采样和随机采样两种采样方式下的数据进行试验,在训练次数300次时网络准确率与损失值趋向平稳,训练准确率稳定在0.93~0.95,损失值稳定在0.1~0.12,选取此时网络模型用作测试集分割对比。
对比结果如表1所示。本文二维CNN分割网络的平均训练时长为33.1 min,测试集图像平均准确率为0.93,平均IoU为0.78,完成63张二维图像分割的平均时间小于1 s。在同样的硬件环境下,PoinetNet网络训练时长平均为120 min,完成63个三维测试集数据的平均分割时间为220 s,平均准确率为0.90,平均IoU为0.68。
表 1 本文方法与PointNet分割结果对比Table 1. Comparison of proposed method and PointNet segmentation results参数 本文方法 PointNet 训练耗时/min 33.1 120 分割耗时/s < 1 220 准确率(ACC) 0.93 0.90 交并比(IoU) 0.78 0.68 相较三维实验的结果而言,本文方法实验结果准确率以及IoU更高,在网络训练时间以及预测时间上相较三维网络耗费也较少,在数据存储上,三维数据占用的空间相较二维图像较多,由此可见在三维人脸区域分割任务上,本文方法相较直接将三维数据作为输入的三维网络来说更优。
4 结论
本文提出了一种三维人脸测量与分割系统,该系统基于结构光方法实现对人脸的三维测量。考虑到三维分割网络的复杂性,提出了一种二维映射-二维分割-三维逆映射的分割策略。实验结果表明,虽然经过保角变换后的二维人脸在图像上存在视觉变化,但对人脸的区域分割并无影响,本文方法能够采用较为轻简的网络以较高的效率实现人脸区域分割。相较于传统二维人脸的分割方法,提出的三维人脸测量与区域分割系统能获取三维人脸的结构信息,不受光照条件和三维人脸姿态的影响,相较于现有的三维分割方法,本文避免了设计复杂的三维分割网络,有效地降低了在网络上的开发难度。
本文采用基于多频外差结合四步相移正弦光栅的方法实现三维人脸测量,系统采集数据时需要投射12幅正弦光栅,测量所用时间较长。目前已有研究可实现单帧投影的三维测量,后续研究将考虑对系统在此方面进行改进。此外,受限于三维人脸数据的样本数,本文仅进行了三维人脸区域分割的研究,若能进一步增加测量数据量,一方面可以通过研究二维分割网络以提高三维人脸区域分割的准确率,另一方面可以采用本文方法开展基于保角变换与二维识别网络的三维人脸识别研究。
-
表 1 基于ResNet网络的模型黑箱测试结果
Table 1 Model black box test results based on ResNet network
实验 TP FN FP TN ACC P R AUC 实验1 9 41 4 46 0.550 0 0.692 308 0.163 6 0.558 0 实验2 867 147 142 44 0.750 0 0.859 267 0.951 7 0.632 6 实验3 961 53 164 22 0.819 2 0.854 222 0.977 6 0.661 3 实验4 837 177 52 134 0.809 2 0.941 507 0.862 0 0.849 6 -
[1] 陈向伟, 张学军, 关山. 基于计算机视觉的微小轴承表面缺陷检测[J]. 机床与液压,2009,37(9):130-132. doi: 10.3969/j.issn.1001-3881.2009.09.044 CHEN Xiangwei, ZHANG Xuejun, GUAN Shan. Inspection of surface defect of micro bearing based on computer vision[J]. Machine Tool & Hydraulics,2009,37(9):130-132. doi: 10.3969/j.issn.1001-3881.2009.09.044
[2] 陈龙, 侯普华, 王进, 等. 轴承表面缺陷类型识别算法[J]. 计算机应用研究,2015,32(5):1549-1553. doi: 10.3969/j.issn.1001-3695.2015.05.068 CHEN Long, HOU Puhua, WANG Jin, et al. Recognition algorithm on bearing surface defect type[J]. Application Research of Computers,2015,32(5):1549-1553. doi: 10.3969/j.issn.1001-3695.2015.05.068
[3] 陈昊, 张奔, 黎明, 等. 基于图像光流的轴承滚子表面缺陷检测[J]. 仪器仪表学报,2018,39(6):198-206. CHEN Hao, ZHANG Ben, LI Ming, et al. Surface defect detection of bearing roller based on image optical flow[J]. Chinese Journal of Scientific Instrument,2018,39(6):198-206.
[4] 张明辉, 王建武, 张文, 等. 机器视觉在轴承检测中的研究现状及发展趋势[J]. 机床与液压,2019,47(23):183-189. ZHANG Minghui, WANG Jianwu, ZHANG Wen, et al. Research status and development trend of machine vision in bearing inspection[J]. Machine Tool & Hydraulics,2019,47(23):183-189.
[5] 韩志玮, 高美凤. 刹车片表面缺陷的图像检测方法[J]. 应用光学,2020,41(3):538-547. HAN Zhiwei, GAO Meifeng. Image detection method for surface defects of brake pads[J]. Journal of Applied Optics,2020,41(3):538-547.
[6] 涂宏斌, 周新建. 基于支持向量机的轴承表面缺陷检测[J]. 现代制造工程,2006(9):90-92. doi: 10.3969/j.issn.1671-3133.2006.09.030 TU Hongbin, ZHOU Xinjian. Bearing defects detection based on support vector machines[J]. Modern Manufacturing Engineering,2006(9):90-92. doi: 10.3969/j.issn.1671-3133.2006.09.030
[7] 吴义权. 轴承外圈表面缺陷检测与分类方法研究[D]. 成都: 电子科技大学, 2019. WU Yiquan. Research on detection and classification of bearing outer ring surface defects[D]. Chengdu: University of Electronics Science and Technology of China, 2019.
[8] 王恒迪, 郝琳博, 杨建玺, 等. 轴承外观缺陷设计与实现[J]. 现代制造工程,2018(5):156-161. WANG Hengdi, HAO Linbo, YANG Jianxi, et al. Design and implementation of detecting system for defects of bearing surface[J]. Modern Manufacturing Engineering,2018(5):156-161.
[9] SHEN H, LI S, GU D, et al. Bearing defect inspection based on machine vision[J]. Measurement,2012,45(4):719-733. doi: 10.1016/j.measurement.2011.12.018
[10] 鲍刚. 微小精密轴承表面缺陷检测关键技术[D]. 西安: 西安工业大学, 2016. . BAO Gang. Key technologies of surface defect detection of the tiny precision bearings[D]. Xi'An: Xi'An Technolgical University, 2016.
[11] 王昆. 图像融合技术在微小轴承表面缺陷检测中的应用[D]. 长春: 吉林大学, 2011. WANG Kun. Application of image fusion in detection of micro bearing surface defect[D]. Changchun: Jilin University, 2011.
[12] 陶青平, 吴锡生. 快速检测轴承表面缺陷方法的研究[J]. 微电子学与计算机,2011,28(10):98-100, 104. TAO Qingping, WU Xisheng. Rapid detection method of the bearing surface defects[J]. Microelectronics & Computer,2011,28(10):98-100, 104.
[13] 刘怀广, 刘安逸, 周诗洋, 等. 基于深度神经网络的太阳能电池组件缺陷检测算法研究[J]. 应用光学,2020,41(2):327-336. LIU Huaiguang, LIU Anyi, ZHOU Shiyang, et al. Research on detection agorithm of solar cell component defects based on deep neural network[J]. Journal of Applied Optics,2020,41(2):327-336.
[14] PENG G, ZHANG Z, LI W. Computer vision algorithm for measurement and inspection of O-rings[J]. Measurement,2016,94:828-836. doi: 10.1016/j.measurement.2016.09.012
[15] 谷静, 张可帅, 朱漪曼. 基于卷积神经网络的焊缝缺陷图像分类研究[J]. 应用光学,2020,41(3):531-537. GU Jing, ZHANG Keshuai, ZHU Yiman. Research on weld defect image classification based on convolutional neural network[J]. Journal of Applied Optics,2020,41(3):531-537.
-
期刊类型引用(3)
1. 王坚. 基于修正Gram-Schmidt法的双连通区域数值保角逆变换计算法. 科技风. 2024(17): 161-164 . 百度学术
2. 李炜. 基于面部边缘细节的局部遮挡人脸图像识别. 吉林大学学报(信息科学版). 2023(04): 732-738 . 百度学术
3. 焦瑾瑾. 光谱匹配技术在人脸轮廓三维图像成像中的应用. 激光杂志. 2022(07): 85-89 . 百度学术
其他类型引用(1)