刹车片表面缺陷的图像检测方法

韩志玮, 高美凤

韩志玮, 高美凤. 刹车片表面缺陷的图像检测方法[J]. 应用光学, 2020, 41(3): 538-547. DOI: 10.5768/JAO202041.0302008
引用本文: 韩志玮, 高美凤. 刹车片表面缺陷的图像检测方法[J]. 应用光学, 2020, 41(3): 538-547. DOI: 10.5768/JAO202041.0302008
HAN Zhiwei, GAO Meifeng. Image detection method for surface defects of brake pads[J]. Journal of Applied Optics, 2020, 41(3): 538-547. DOI: 10.5768/JAO202041.0302008
Citation: HAN Zhiwei, GAO Meifeng. Image detection method for surface defects of brake pads[J]. Journal of Applied Optics, 2020, 41(3): 538-547. DOI: 10.5768/JAO202041.0302008

刹车片表面缺陷的图像检测方法

基金项目: 国家自然科学基金(61973139, 61473138)
详细信息
    作者简介:

    韩志玮(1992−),男,硕士研究生,主要从事信号检测与信息处理方面的研究。 E-mail:zw-han@foxmail.com

  • 中图分类号: TN201; TP391.4

Image detection method for surface defects of brake pads

  • 摘要: 针对汽车刹车片表面纹理情况不一、种类繁多的问题,提出一种基于机器视觉的刹车片表面缺陷图像检测方法,该方法结合了灰度共生矩阵与密度聚类。首先提取刹车片的摩擦面,然后确定灰度共生矩阵的构造因子的选取,利用线性相关性选择特征参数。将每个摩擦面切分成若干小窗口,计算各个小窗口的特征值构造特征数据集,通过自适应密度聚类算法进行聚类分析,从而进一步判断是否存在缺陷区域。通过对58块不同型号的刹车片样本进行检测结果统计分析,实验表明,该方法误检率为8%,漏检率为6%,具有较高的检测精度,因此,该方法能够较好地检测刹车片样本是否存在缺陷,具有广泛的适用性。
    Abstract: In order to deal with the different surface textures and various types of automotive brake pads, an image detection method for surface defects of brake pads based on machine vision was proposed, which combined the gray co-occurrence matrix and the density clustering. Firstly, the friction surface of the brake pad was extracted. Then the construction factor selection of the gray co-occurrence matrix was determined, and the linear correlation was used to select the characteristic parameters. Each friction surface was divided into several small windows, and the eigenvalue of each small window was calculated to construct the feature data sets. The cluster analysis was carried out by the adaptive density clustering algorithm, so as to further determine whether there existed a defect area or not. Based on the statistical analysis of the test results of 58 brake pad samples of different models, the experiment shows that the method has a high detection accuracy with a false detection rate of 8% and a missed detection rate of 6%. Therefore, the method can better detect whether there are defects in the brake pad samples and has a wide range of applicability.
  • 基于视觉成像的传统测速主要以单目测速和双目测速为主,利用视频测速技术记录运动目标在运动位置上的变化以及所用时间,从而计算出目标的运动速度。2013年,林柏林通过对路面标定和车辆特征识别实现了单目视觉对道路车辆的测速功能[1],但是该测速系统存在安装方式单一、道路标定困难以及场景要求高等弊端。东北大学常子霆 [2]在单目视觉测速的基础上,结合一种空间位置的匹配区域对齐算法和基于模板匹配的空间位移计算方法,实现了基于双目视觉测速的功能,实验上验证了运动目标速度控制在10 km/h~20 km/h的速度测试,误差控制在5%以内。

    近几十年来,不少学者对仿生复眼相机成像技术进行了不断探索,并利用仿生复眼的成像优势,不断探索发掘实质性的应用[3-8]。在曲面仿生复眼相机良好的成像效果基础上,为了突显对运动目标敏感的视觉优势,利用曲面仿生复眼相机实现对高速运动目标测速的相关研究也得到了重视。2017年,西安光机所鱼卫星团队研制了一种小型曲面仿生复眼系统,结合每个子眼不同视角的成像原理,对不同子眼测速分量进行分析,提出利用速度分量计算目标实际速度的方法[9]。2020年,该课题组研制出一款长工作距离的曲面仿生复眼相机[10-12],通过一块图像传感器对127个子眼进行数据采集,保证了数据采集的同步性,并将该曲面仿生复眼相机搭载在无人机上实现了对运动目标的探测。与此同时,服务于复眼图像信息提取的相关算法也得到了重视和发展。2019年,天津大学韩宇等[13]对基本的SIFT(scale invariant feature transform)算法进行了改进,在曲面仿生复眼测速系统中该方法可以快速、有效地解决特征点匹配的问题,提高了测速的准确性和稳定性。2020年,谭中慧[14]团队利用opencv的车速测量算法和SIFT等图像算法对运动车辆进行目标角点检测,根据图像像素与实际距离的对应关系得到汽车运动的实际距离。该方法相比传统车辆测速算法具有更好的鲁棒性,能够得到更好的测量结果。

    为了进一步探索曲面仿生复眼成像系统在测速方面的技术优势,本文采用127个子眼曲面仿生复眼相机对运动目标的速度进行了测试研究,建立了基于曲面仿生复眼的多目标速度测试模型,设计了相关测速实验,得到了准确的速度测试结果。同时为了突出复眼测速的优势,采用成像性能相近的单孔径相机进行了测速实验,并进行了比对,结果表明,曲面仿生复眼测速系统具有更高的准确性和稳定性。

    本文采用的曲面仿生复眼相机,由一块CMOS图像传感器对数据进行采集,最终捕捉到的图像是由127个子图像组成一副完整图像。由于相邻子眼之间存在视场重叠,所以相邻7个子眼可以同时获取到同一被测目标的位置信息。曲面仿生复眼系统测速原理如图1(a)所示。图1中,中心子眼C1_1和周围相邻6个子眼C2_1,C2_2,C2_3,C2_4,C2_5和C2_6组成一组具有视场重叠特性的簇眼,利用该簇眼可以对场景中同一运动目标同时进行测速。以目标Px,yz)所在位置建立世界坐标系o-xyz,运动距离L后的坐标位置为P'x'y'z'),同时以7个子眼的中心建立相机坐标系O-XijYijZij,最后以每个子眼所对应的子图像建立图像坐标系o-uij-vij,如图1(b)所示。建立相邻子眼重叠视场数学模型,在图像坐标系中利用SIFT特征匹配,找出相邻子图像中对应的像素坐标,通过如图2所示的图像几何变换可以得到相邻子图像之间的重叠像素数目,从而计算出运动目标在图像坐标系中运动的像素数目。

    图  1  曲面仿生复眼成像系统测速原理图和簇眼成像坐标系示意图
    Figure  1.  Schematic of velocity measurement of curved bionic compound eye imaging system and diagram of cluster eyes imaging coordinate system
    图  2  相邻子图像几何变换示意图
    Figure  2.  Schematic diagram of geometric transformation of adjacent sub-images

    根据图1(a)中测速原理,结合小孔成像模型以及三角形相似关系,则有:

    $$ \frac{L}{l} = \frac{D}{f} $$

    式中:$ T $为运动时间;D为拍摄距离;$ f $为曲面仿生复眼测速系统的焦距。

    相邻2个子眼对同一目标在重叠视场内的成像示意图如图2所示,目标点分别对应2个视场的A点和A′点。由图2可知,经过对右子眼视场进行180°翻转,可以达到简化计算重叠像素数目的目的。假设α1为有效像素数目(红色线段区域),α2为相邻子图像之间的像素数目(青色线段区域),α3为重叠区域的像素数目(黑色线段区域),则图像几何变换前后两点A和A′之间的总像素数目αbeforeαafter分别为

    $$ {\alpha _{{\text{before}}}} = {\alpha _1} + {\alpha _2} + {\alpha _3} $$ (1)
    $$ {\alpha _{{\text{after}}}} = {\alpha _2} + {\alpha _3} $$ (2)

    在目标整个运动过程中,7个子眼两两相互对应,如图3所示。以图3中第一排(R1)为例,PP '分别代表对应子眼中的特征点位置。假设整个运动过程中总重叠像素为Δα,已知每个像元大小为ρ,则图像坐标系中的位移量$ l $为

    图  3  目标运动过程
    Figure  3.  Target movement process
    $$ l = \rho \sqrt {{{\left( {{u_{ij}} - u{'_{ij}}} \right)}^2} + {{\left( {{v_{ij}} - \Delta \alpha - v{'_{ij}}} \right)}^2}} $$ (3)

    运动目标的速度为

    $$ V = \frac{{lD}}{{f\left( {{T_2} - {T_1}} \right)}} $$ (4)

    式中:T为运动时间,T1T2分别表示运动起始和结束的时间。

    在整个实验过程中,以C1_1为中心子眼的7个相邻子眼,可以同时获取该场景中运动目标的位置信息。所以在一组实验数据中,针对运动目标的每个位置均存在七组位置对应关系,可通过公式(5)取平均值的方法来减少实验误差,得到更接近真实的速度:

    $$ \bar V = \dfrac{{\displaystyle\sum\nolimits_{n = 1}^7 {\dfrac{{{l_n}D}}{{f\Delta {T_n}}}} }}{7} $$ (5)

    实验场地为单向三车道,宽度为9 m,曲面仿生复眼测速系统固定在车道一侧,选择拍摄距离分别为9.4 m和6.3 m。首先将相机摆放在合适位置,无遮挡物出现在相机的视野内,并使得运动目标能够在复眼相机和单孔径相机视野范围内运动。利用单孔径相机的录像功能,在同一次实验过程中,既能通过曲面复眼相机得到目标的运动信息,也可以利用单孔径相机得到目标的运动信息,这样大大减小了重复实验对数据造成的误差。

    实验前,利用外部电源给曲面仿生复眼相机供电,输出端连入电脑,通过ipxplayer软件实现对运动目标的拍摄。实验中,利用曲面仿生复眼相机和单孔径相机分别在同一工作距离下对行驶在道路中的汽车进行拍摄,汽车上标记一张黑色A4纸,以4个黑色角点为目标进行特征点检测,有利于后期数据处理,汽车保持8.33 m/s(30 km/h)的速度匀速直线行驶。曲面仿生复眼相机在拍摄距离9.3 m和6.4 m处得到的全视场复眼融合图如图4所示。从图4可以看出,该曲面仿生复眼相机具有良好的成像效果。

    图  4  不同拍摄距离处曲面仿生复眼测速系统的融合图像
    Figure  4.  Fusion image of curved bionic compound eye velocimetry system at different shooting distances

    拍摄距离为9.3 m时汽车在复眼图像上的起始位置和终点位置如图5所示。从图5可以看出,由于曲面仿生复眼相机的视场重叠优势,在原始复眼图像上有一簇子眼可以观察到汽车的运动信息,即利用曲面仿生复眼相机的视场重叠优势,在一次实验中可以得到7组数据,通过对这7组子眼的速度数据求平均值可使误差更小。

    图  5  曲面仿生复眼测速系统的测速过程
    Figure  5.  Velocity measurement process of curved bionic compound eye velocimetry system

    以黑色A4纸为目标,通过对感兴趣区域采用角点检测,找出目标所在子眼像素坐标系下的坐标,进而利用霍夫圆检测算法、图像分割和SIFT特征点匹配算法计算出重叠区域的像素数目。通过MATLAB对原始复眼图像进行图像分割,得到相邻2个子眼的子图像,如图6所示。

    图  6  曲面仿生复眼系统相邻2个子眼的子图像
    Figure  6.  Sub-images of two adjacent small eyes of curved bionic compound eye system

    对相邻2个子图像进行特征点匹配,从而计算出相邻2个子眼之间的重叠像素数目,如图7所示。

    图  7  相邻2个子图像的特征点匹配
    Figure  7.  Feature point matching of two adjacent sub-images

    在一次完整的采集过程中,运动目标从C1_1运动到所对应的C'1_1, 采样时间T=1.37 s,整个过程共经过了9个子眼,每相邻2个子眼间会出现一次无图像区域和重叠区域。经计算,无图像区域像素数目α2=10,相邻2个子眼之间的重叠像素数目α3=220,根据公式(2)可计算出拍摄距离为9.3 m时,整个运动过程的总像素数目为

    $$ \Delta \alpha = 8{\alpha _{{\text{after}}}} = 8\left( {{\alpha _2} + {\alpha _3}} \right) = 1{\text{ }}840 $$

    在曲面仿生复眼相机对运动汽车进行拍摄过程中可以得到多幅复眼图像,文中只给出了部分图像。根据文中复眼图像可知,汽车运动中的2个位置PP '相对应,共有14个像素坐标分别记录在14个子图像中,通过图像处理得到的像素坐标如表1所示。根据表1中像素坐标,并结合公式(3)、公式(4)可计算出汽车的平均速度以及相对误差,如表2所示。

    表  1  复眼不同拍摄距离处目标位置PP'对应的像素坐标
    Table  1.  Pixel coordinates corresponding to target positions P and P' at different shooting distances of compound eye
    测试位置子眼数像素坐标(uivi
    D=9.3 mD=6.4 m
    P1(4 101,2 581)(4 547,2 547)
    2(3 822,2 117)(4 267,2 080)
    3(4 366,2 105)(4 810,2 069)
    4(4 647,2 576)(5 095,2 537)
    5(4 377,3 052)(4 825,3 017)
    6(3 835,3 053)(4 280,3 022)
    7(3 560,2 589)(4 004,2 553)
    P'1(851,2 654)(911,2 631)
    2(571,2 182)(632,2 159)
    3(1 118,2 176)(1 178,2 155)
    4(1 396,2 645)(1 455,2 622)
    5(1 134,3 119)(1 193,3 095)
    6(589,3 128)(646,3 106)
    7(308,2 660)(365,2 638)
    下载: 导出CSV 
    | 显示表格
    表  2  复眼不同拍摄距离处测试速度与实际速度对比
    Table  2.  Comparison of test speed and actual speed at different shooting distances of compound eye
    测试
    位置/m
    速度测量值 V/(m/s)平均
    速度/
    (m/s)
    实际
    速度/
    (m/s)
    误差/%
    V1V2V3V4V5V6V7
    9.38.618.628.608.628.578.588.628.608.333.24
    6.48.058.048.038.078.038.048.068.048.333.48
    下载: 导出CSV 
    | 显示表格

    表2中测试数据可以看出,在一次完整的实验过程中,曲面仿生复眼相机7组测试速度值比较稳定,远距离拍摄汽车运动速度的相对误差控制在4%以内。因此,曲面仿生复眼相机具有良好的远距离测速性能。

    簇眼中7个子眼相对误差图如图8所示。下面对不同距离下的测速精度进行分析:(1)在不同拍摄距离下,运动目标经过的子眼数是不同的,导致计算过程中重叠像素数目不同。因为每幅子图像周围存在光晕,在对子图像进行分割时,会导致部分像素数目丢失或增加,从而影响最后的测速结果。(2)本文利用SIFT特征点提取与匹配算法对目标进行等量代换,特征点的运动速度等于目标的运动速度。在不同拍摄距离下,目标出现在图像中的大小不同,确定对特征点的像素坐标存在0~5个像素数目的误差,导致速度测量值存在误差。

    图  8  簇眼的相对误差
    Figure  8.  Relative errors of cluster eyes

    误差的产生主要与重叠像素数目的计算有关。不同拍摄距离时,目标在复眼原始图像上经过的子眼个数不同,D=9.3 m时,目标经过9个子眼,D=6.4 m时,目标经过8个子眼。故运动过程中重叠像素数目不同,导致速度误差不同。

    为了比较曲面复眼相机和单孔径相机的测速能力,选择视场和焦距与曲面复眼相机接近的单孔径相机进行测速实验。曲面仿生复眼相机与单孔径相机的参数对比如表3所示。

    表  3  曲面仿生复眼相机与单孔径相机参数对比
    Table  3.  Comparison of parameters of curved bionic compound eye camera and single aperture camera
    参数数值
    复眼相机单孔径相机
    子眼个数 N1271
    球壳半径 R/mm6833
    单个子眼直径 D/mm7.466
    像元尺寸 α/μm4.511
    单个子眼的视场角 Δ$ \varphi $/(°)14/
    相邻子眼的重叠角度/(°)7/
    相机帧速率/fps1323
    总视场 $ \omega $/(°)98×9895.4×78.4
    焦距 f/mm56
    下载: 导出CSV 
    | 显示表格

    曲面仿生复眼镜头半径为68 mm[15],由127个子眼组成。每个子眼的直径为7.4 mm,子眼的焦距为5 mm,单个子眼的视场为14°,相邻子眼光轴之间的夹角为7°,角分辨率为 1.8 mrad。该复眼仿生系统的总视场角约为98°×98°,所有成像通道共用一个图像传感器,选用索尼公司的型号为NOIP1SN025KA的图像传感器,图像采样速率为13 fps,传感器像元尺寸为4.5 μm,系统体积为Ф123 mm×195 mm,系统总质量为1.35 kg。

    单孔径测速系统由HS-95-U3型号相机与单孔径镜头组成,镜头半径为33 mm,系统的焦距为6 mm,该单孔径系统的总视场为95.4°×78.4°。图像传感器选用的是GSENSE400BSI,图像的采样速率为23 fps,像元尺寸大小为11 μm。单孔径测速系统总体积为Ф66 mm×95 mm,系统总质量为1 kg。

    在曲面仿生复眼系统拍摄的同时,得到单孔径相机对运动目标拍摄的一段视频,视频时长33 s,共697帧图像,单孔径相机帧频为23 fps,可知任意两帧图像之间的时间差。选取四帧图像,每两帧图像可计算出一个速度值,通过四幅分时图像排列组合得到6个速度测试值。在拍摄距离为9.3 m处,单孔径相机通过视频处理得到两组的四幅图像帧,分别是第535帧、545帧、560帧和565帧;第二组是第550帧、563帧、573帧和580帧。在拍摄距离为6.4 m处,单孔径相机通过视频处理得到两组的四幅图像帧,第一组是第215帧、220帧、230帧和235帧;第二组是第335帧、340帧、345帧和355帧。单孔径测速系统与曲面仿生复眼测速系统选取同样的特征点,结合SIFT算法匹配出每幅图像帧中特征点的像素坐标,如表4所示。

    表  4  单孔径相机不同拍摄距离处目标位置帧数对应的像素坐标
    Table  4.  Pixel coordinates corresponding to the number of target position frames at different shooting distances of single-aperture cameras
    帧数像素坐标(uivi
    9.3 m图像帧6.4 m图像帧D=9.3 mD=6.4 m
    535215(531,957)(582,941)
    545220(768,960)(738,943)
    560230(1 068,965)(1 058,950)
    565235(1 156,967)(1 183,954)
    550335(550,958)(677,958)
    563340(833,961)(833,961)
    573345(1 071,966)(980,963)
    580355(1 227,969)(1 283,969)
    下载: 导出CSV 
    | 显示表格

    根据表4中像素坐标,并结合公式(3)和公式(4),可计算出单孔径相机对汽车的平均速度以及相对误差,如表5所示。

    表  5  单孔径不同拍摄距离处测试速度与实际速度对比
    Table  5.  Comparison of test speed and actual speed at different shooting distances of single aperture
    测试位置 D/m速度测量值 V(m/s)平均速度/(m/s)实际速度/(m/s)误差/%
    V1V2V3V4V5V6
    9.39.318.438.177.867.617.148.088.332.9
    6.48.718.738.598.208.036.988.208.331.5
    9.38.618.888.879.439.208.868.978.337.68
    6.48.718.268.178.218.128.268.288.330.6
    下载: 导出CSV 
    | 显示表格

    表5中多组测试数据可以看出,由单孔径相机得到的四帧图像可两两组合得到六组测试速度值,发现六组测试值波动较大,与实际速度值相比也出现较大的相对误差。

    曲面仿生复眼测速系统与单孔径测速系统分别在拍摄距离为6.4 m和9.3 m处的速度测试值分布曲线如图9所示。图9中黑色曲线和蓝色曲线分别代表复眼测试值,红色曲线和青色曲线分别代表单孔径测试值,绿色曲线代表实际速度值。从图9可以明显看出,曲面仿生复眼测速系统对高速运动目标的测速精度比单孔径测速系统更加稳定和准确,曲面仿生复眼测速系统具有更快的激励反应,第一个测试值就可以反应实际速度,同时误差控制在4%以内。单孔径测速系统的测试值在8.61 m/s~9.43 m/s之间,具有较大波动,需要通过多次测试,取平均值后才能得到一个更加准确的速度值。

    图  9  复眼和单孔径相机测速结果对比
    Figure  9.  Comparison of velocity measurement results between compound eye and single aperture cameras

    本文使用的曲面仿生复眼相机在一定程度上解决了现有大视场、高分辨率成像与数据采集同步性、实时性之间的矛盾,并且实现了对高速运动目标进行广域监控的功能。从曲面仿生复眼与单孔径相机测速对比实验中可以看出,曲面仿生复眼测速系统可以实现一组7个子眼同时对高速运动的目标进行识别与分辨,并且相对于单孔径测速系统具有更好的稳定性与准确性。由于曲面仿生复眼相机结构小巧、携带轻便、功耗低,并且系统只采用一块图像传感器,从而确保了数据采集的同步性,同时图像处理过程全部在原始图像上进行,这样大大提高了运动目标的实时探测能力。因此,该相机在目标探测、安全监控等领域有着广泛的应用前景。

  • 图  1   正常纹理及含缺陷纹理样本

    Figure  1.   Normal and defective texture samples

    图  3   特征值—灰度级的关系曲线

    Figure  3.   Relation curves of eigenvalue-gray level

    图  4   特征值—滑动窗口尺寸的关系曲线

    Figure  4.   Relation curves of eigenvalue-sliding window size

    图  5   特征值—步长的关系曲线

    Figure  5.   Relation curves of eigenvalue-step

    图  6   簇数-K值的关系曲线

    Figure  6.   Relation curves of cluster number-K value

    图  7   缺陷检测方法流程图

    Figure  7.   Flow chart of defects detection method

    图  8   两种不同缺陷的刹车片表面图像

    Figure  8.   Brake pad surface image with two different defects

    图  9   提取出的摩擦面图像

    Figure  9.   Extracted friction surface image

    图  10   特征数据聚类结果可视化

    Figure  10.   Clustering results visualization of feature data

    图  11   凹陷样本上框出的异常点

    Figure  11.   Anomalous points on concave sample

    表  1   正常、凹陷、毛刺3种样本在不同方向的特征值之间的方差

    Table  1   Variance between eigenvalues of normal,concave,and burr samples in different directions

    样本种类角二阶矩对比度逆差矩
    正常样本00.001 90.000 50
    凹陷样本00.0130.001 70.000 3
    毛刺样本00.007 20.002 40.000 3
    下载: 导出CSV

    表  2   特征参数之间的线性相关矩阵

    Table  2   Linear correlation matrix between characteristic parameters

    特征参数ASMCONENTIDMVARSOASOESOVDOVDOECOR
    ASM 1 0.46 0.95 0.88 0.15 0.73 0.96 0.06 0.90 0.78 0.54
    CON 1 0.61 0.80 0.22 0.44 0.49 0.22 0.76 0.88 0.70
    ENT 1 0.94 0.35 0.84 0.99 0.26 0.95 0.87 0.54
    IDM 1 0.19 0.67 0.87 0.12 0.99 0.98 0.74
    VAR 1 0.78 0.38 0.99 0.21 0.20 0.39
    SOA 1 0.87 0.71 0.70 0.62 0.06
    SOE 1 0.30 0.89 0.78 0.42
    SOV 1 0.15 0.16 0.44
    DOV 1 0.97 0.69
    DOE 1 0.76
    COR 1
    下载: 导出CSV

    表  3   凹陷样本3块摩擦面上噪声点对应的均值和

    Table  3   Corresponding mean value sum of noise points on three friction surfaces of concave sample

    均值和摩擦面a摩擦面b摩擦面c
    噪声点均值和22.019.015.0
    23.019.021.0
    23.019.021.0
    26.020.020.0
    正常点均值和19.019.0019.0
    下载: 导出CSV
  • [1] 江恒, 王小兵, 张晶, 等. 基于机器视觉的微光夜视仪整机检测系统设计[J]. 应用光学,2016,37(3):342-346. doi: 10.5768/JAO201637.0301004

    JIANG Heng, WANG Xiaobing, ZHANG Jing, et al. Design and realization of low-light-level night-vision device detection system based on machine vision[J]. Journal of Applied Optics,2016,37(3):342-346. doi: 10.5768/JAO201637.0301004

    [2] 宋丽梅, 徐婧玮, 杨燕罡, 等. 基于改进梯度幅值的包装缺陷检测算法研究及应用[J]. 应用光学,2019,40(4):644-651. doi: 10.5768/JAO201940.0403003

    SONG Limei, XU Jingwei, YANG Yan’gang, et al. Research and application of package defects detection algorithm based on improved GM[J]. Journal of Applied Optics,2019,40(4):644-651. doi: 10.5768/JAO201940.0403003

    [3] 魏永杰, 葛婷婷, 张中岐, 等. 基于累积梯度的裂缝提取算法[J]. 应用光学,2019,40(5):818-822. doi: 10.5768/JAO201940.0502005

    WEI Yongjie, GE Tingting, ZHANG Zhongqi, et al. Algorithm of crack extraction based on accumulated gradient[J]. Journal of Applied Optics,2019,40(5):818-822. doi: 10.5768/JAO201940.0502005

    [4] 曾强, 孙坚. 基于HALCON的刹车片轮廓缺陷检测方法研究[J]. 煤矿机械,2016,37(8):143-146.

    ZENG Qiang, SUN Jian. Research on defects contour detection for brake pad based on HALCON[J]. Coal Mine Machinery,2016,37(8):143-146.

    [5] 费成, 黄影平, 胡兴, 等. 基于机器视觉的汽车刹车片自动检测系统[J]. 光学仪器,2018,40(3):80-87.

    FEI Cheng, HUANG Yingpin, HU Xing, et al. Machine vision based automobile inspection system for automobile parts[J]. Optical Instruments,2018,40(3):80-87.

    [6]

    ROBERT M, HARALICK K, SHANMUGAM, et al. Textural features for image classification[J]. IEEE Transactions on Systems Man & Cybernetics,1973,3(6):610-621.

    [7] 高士忠. 基于灰度共生矩阵的织物纹理分析[J]. 计算机工程与设计,2008,29(16):4385-4387.

    GAO Shizhong. Analysis of fabric texture based on GLCM[J]. Computer Engineering and Design,2008,29(16):4385-4387.

    [8] 刘大鹏, 程君, 黄唯, 等. 增强的基于灰度共生矩阵的脑肿瘤MRI图像分类[J]. 中国医学物理学杂志,2015,32(6):772-776. doi: 10.3969/j.issn.1005-202X.2015.06.003

    LIU Dapeng, CHENG Jun, HUANG Wei, et al. Improved brain tumor MRI image classification based on gray level co-occurrence matrix[J]. Chinese Journal of Medical Physics,2015,32(6):772-776. doi: 10.3969/j.issn.1005-202X.2015.06.003

    [9] 陈后金, 许文达, 郝晓莉. 基于灰度-梯度共生矩阵的钢轨表面缺陷检测方法[J]. 北京交通大学学报,2015(39):7-12.

    CHEN Houjin, XU Wenda, HAO Xiaoli. Detection of rail track surface defects based on gray level-gradient co-occurrence matrix[J]. Journal of Beijing Jiaotong University,2015(39):7-12.

    [10] 章永来, 周耀鉴. 聚类算法综述[J]. 计算机应用,2019,39(7):1869-1882. doi: 10.11772/j.issn.1001-9081.2019010174

    ZHANG Yonglai, ZHOU Yaojian. Review of clustering algorithms[J]. Journal of Computer Applications,2019,39(7):1869-1882. doi: 10.11772/j.issn.1001-9081.2019010174

    [11]

    ESTER M, KRIEGEL H P, SANDER J, et al. A density-based algorithm for discovering clusters in large spatial databases with noise[C]//International Conference on Knowledge Discovery & Data Mining. [S.l]: [s.n.], 1996, KDD-96: 226-231.

    [12]

    ULABY F T, KOUYATE F, BRISCO B, et al. Textural infornation in SAR images[J]. IEEE Transactions on Geoscience and Remote Sensing,1986,24(2):235-245.

    [13] 郭衣正, 焦蓬蓬, 周巧和, 等. 基于灰度共生矩阵的肝脏CT图纹理特征分析[J]. 实验室研究与探索,2012,31(8):62-64. doi: 10.3969/j.issn.1006-7167.2012.08.018

    GUO Yizheng, JIAO Pengpeng, ZHOU Qiaohe, et al. Liver CT image texture feature analysis based on gray level co-occurrence matrix[J]. Research and Exploration In Laboratory,2012,31(8):62-64. doi: 10.3969/j.issn.1006-7167.2012.08.018

    [14] 郭慧, 王霄, 刘传泽, 等. 基于灰度共生矩阵和分层聚类的刨花板表面图像缺陷提取方法[J]. 林业科学,2018,54(11):114-123.

    GUO Hui, WANG Xiao, LIU Chuanze, et al. Research on defect extraction of particleboard surface images based on gray level co-occurrence matrix and hierarchical clustering[J]. Scientia Silvae Sinicae,2018,54(11):114-123.

    [15] 孙国栋, 林松, 艾成汉, 等. 基于灰度共生矩阵与反向投影的织物疵点检测[J]. 计算机测量与控制,2016,24(7):65-67.

    SUN Guodong, LIN Song, AI Chenghan, et al. Fabric defect detection based on gray-level co-occurrence matrix and back projection[J]. Computer Measurement & Control,2016,24(7):65-67.

    [16] 苑丽红, 付丽, 杨勇, 等. 灰度共生矩阵提取纹理特征的实验结果分析[J]. 计算机应用,2009,29(4):1018-1021. doi: 10.3724/SP.J.1087.2009.01018

    YUAN Lihong, FU Li, YANG Yong, et al. Analysis of texture feature extracted by gray level co-occurrence matrix[J]. Journal of Computer Applications,2009,29(4):1018-1021. doi: 10.3724/SP.J.1087.2009.01018

    [17] 谢娟英, 高红超. 基于统计相关性与K-means的区分基因子集选择算法[J]. 软件学报,2014(9):2050-2075.

    XIE Juanying, GAO Hongchao. Statistical correlation and K-means based distinguishable gene subset selection algorithms[J]. Coden Ruxuew,2014(9):2050-2075.

    [18]

    KHAN M M R, SIDDIQUE M A B, ARIF R B, et al. ADBSCAN: Adaptive density-based spatial clustering of applications with noise for identifying clusters with varying densities[C]//4th International Conference on Electrical Engineering and Information & Communication Technology. USA: IEEE, 2018.

    [19] 李文杰, 闫世强, 蒋莹, 等. 自适应确定DBSCAN算法参数的算法研究[J]. 计算机工程与应用,2019,55(5):1-7. doi: 10.3778/j.issn.1002-8331.1809-0018

    LI Wenjie, YAN Shiqiang, JIANG Ying, et al. Research on method of self-adaptive determination of DBSCAN algorithm parameters[J]. Computer Engineering and Applications,2019,55(5):1-7. doi: 10.3778/j.issn.1002-8331.1809-0018

    [20] 张文元, 谈国新, 朱相舟. 停留点空间聚类在景区热点分析中的应用[J]. 计算机工程与应用,2018(4):263-270. doi: 10.3778/j.issn.1002-8331.1608-0255

    ZHANG Wenyuan, TAN Guoxin, ZHU Xiangzhou. Application of stay points spatial clustering in hot scenic spots analysis[J]. Computer Engineering and Applications,2018(4):263-270. doi: 10.3778/j.issn.1002-8331.1608-0255

  • 期刊类型引用(1)

    1. 王媛,杨陈,李世杰. 图像拼接的仿生复眼光学系统设计. 西安工业大学学报. 2024(05): 616-624 . 百度学术

    其他类型引用(0)

图(10)  /  表(3)
计量
  • 文章访问数:  1279
  • HTML全文浏览量:  378
  • PDF下载量:  57
  • 被引次数: 1
出版历程
  • 收稿日期:  2019-11-03
  • 修回日期:  2020-01-06
  • 网络出版日期:  2020-05-29
  • 刊出日期:  2020-04-30

目录

/

返回文章
返回