基于改进BiSeNet的非结构化道路分割算法研究

宋亮, 谷玉海, 石文天

宋亮, 谷玉海, 石文天. 基于改进BiSeNet的非结构化道路分割算法研究[J]. 应用光学, 2023, 44(3): 556-564. DOI: 10.5768/JAO202344.0302003
引用本文: 宋亮, 谷玉海, 石文天. 基于改进BiSeNet的非结构化道路分割算法研究[J]. 应用光学, 2023, 44(3): 556-564. DOI: 10.5768/JAO202344.0302003
SONG Liang, GU Yuhai, SHI Wentian. Unstructured road segmentation algorithm based on improved BiSeNet[J]. Journal of Applied Optics, 2023, 44(3): 556-564. DOI: 10.5768/JAO202344.0302003
Citation: SONG Liang, GU Yuhai, SHI Wentian. Unstructured road segmentation algorithm based on improved BiSeNet[J]. Journal of Applied Optics, 2023, 44(3): 556-564. DOI: 10.5768/JAO202344.0302003

基于改进BiSeNet的非结构化道路分割算法研究

基金项目: 北京市科技委促进高校内涵发展-学科建设专项资助项目(5112011015);机电系统测控北京市重点实验室开放课题资助(KF20202223204)
详细信息
    作者简介:

    宋亮(1999—),男,硕士研究生,主要从事深度学习和无人车定位与导航研究。E-mail:3028626195@qq.com

    通讯作者:

    谷玉海 (1976—) ,男,博士,研究员,主要从事测控技术及仪器研究。E-mail:gyuhai@163.com

  • 中图分类号: TN99;TP183

Unstructured road segmentation algorithm based on improved BiSeNet

  • 摘要:

    非结构化道路通常没有清晰的边界及车道线,环境较为复杂,传统的基于道路纹理、颜色特征的分割方法无法满足实时性和准确性的要求。针对非结构化道路场景,提出了基于改进BiSeNet的轻量化语义分割模型,采用轻量化主干提取网络和引入深度可分离卷积,优化速度控制;在最后的特征融合阶段引入通道注意力,自适应地选择重要特征,抑制冗余信息,提高非结构化道路分割的准确性。改进后模型参数量仅有1.11×106,检测速度提升18.83%,F1-score达到了96.74%。对比其他主流语义分割模型,该算法具有参数量小、速度快、准确率高等优势,可为非结构化道路场景下无人驾驶车辆的安全运行提供参考。

    Abstract:

    Unstructured roads usually have no clear boundaries and lane lines, and the environment is more complex. The traditional segmentation methods based on road texture and color features cannot meet the requirements of real-time performance and accuracy. For unstructured road scenes, a lightweight semantic segmentation model based on improved BiSeNet was proposed, which adopted the lightweight trunk extraction network and introduced the depthwise separable convolution to optimize the speed control. The channel attention was introduced in the final feature fusion stage to adaptively select important features, suppress redundant information, and improve the accuracy of unstructured road segmentation. The number of parameters of the improved model is only 1.11×106, the detection speed is increased by 18.83%, and the F1-score reaches 96.74%. Compared with other mainstream semantic segmentation models, the proposed algorithm has the advantages of small parameters, high speed and high accuracy, which can provide a reference for the safe operation of unmanned vehicles in unstructured road scenarios.

  • 侦察车等地面侦察设备是获取战场信息的重要手段,为避免建筑物、树木等障碍物的遮挡,也为了降低地球曲率对通视距离的影响,越来越多的侦察车采用桅杆式光电设备来实现远距离侦察[1]。桅杆的举升高度从1.5 m到10 m不等。

    桅杆由多节杆体组成,降落时各节重叠以降低高度,举升时则各节伸展以提高观察高度。桅杆机械结构的各节之间存在间隙,杆体举升过程中存在弯曲和变形[2-4],桅杆越高,则桅杆顶部存在越大的姿态变化,而且,桅杆举升的高度不同,这种扭转、变形也不同;举升后由于风吹、发动机振动等影响,也会加剧这种不稳定的变化,如一种收藏高度1.9 m、举升后高度超过8.7 m、由7节组成的桅杆,在倾斜地面上举升时,升到最高处的倾斜可以达到约1°,扭转变形角度可达45 mil左右。不准确测量出这些变化,显然就会在目标坐标的计算中引入很大的误差。桅杆的这些误差会影响侦察车的侦察定向精度[5],因此需要采取准确的测量方法,以降低这种变形对光电桅杆侦察精度的影响。

    分析侦察车、桅杆与光电设备的误差因素能够为系统设计通过依据[6-7];在静止调平的平台上桅杆承载光电设备可以获得很高的定向精度[8];在野外应用的侦察车上桅杆及其承载的设备姿态是变化的,采用倾角传感器可以在车辆驻车时桅杆举升前后测量其俯仰、倾斜的角度,精度能够达到0.1 mil量级,通过惯性元件能够减少时间漂移[9];对于桅杆举升时的扭动,则倾角传感器无能为力。一种较好的方法是采用惯性导航装置,将这种包含有3个陀螺和3个加速度计的设备安装在桅杆顶部,可以动态测量出桅杆举升在不同高度下的倾斜、俯仰与扭动,寻北精度1.0 mil的惯性导航装置,姿态测量精度约0.7 mil。不过,采用这种方法也存在成本较高、尺寸较大的不足,该尺寸会影响运输限高下桅杆的收藏高度。若降低该设备高度100 mm,则6节活动杆体可以提高举升高度600 mm。采用单一陀螺与倾角传感器的组合,能够在驻车状态下有效获得桅杆顶部的方位、俯仰和倾斜角度[10]

    因此研究一种侦察车载桅杆式光电侦察的侦察定向测量方法成为可能。

    采用双轴倾角传感器代替水平两个陀螺仪来完成姿态角测量,姿态方位测量精度要求达到0.03°/h,需要对其所测原始数据进行滤波处理。因此,在初始航向角已装定的基础上,采取在载体坐标系完成载体Z轴迭代更新计算,实现航向角测量,将更新后载体Z轴方位角根据倾角传感器所测的载体姿态角,投影到导航坐标系,再解算出载体航向真值,系统原理框图如图 1所示。

    图  1  系统原理框图
    Figure  1.  Principle block diagram of system

    根据倾角传感器所测信息,实时判定载体姿态角是否处于完全静止状态,若为连续静止状态,则通过载体静止状态下方位角漂移估算Z轴陀螺零偏残差,并完成修正,提高系统精度。

    根据上述测姿原理建立的测姿设备,可以测量倾斜量(即姿态角的俯仰、横滚分量),而在方位分量上只能跟踪变化量。在其测量起始时刻给出当前北向角,通过测姿设备对方位变化量的跟踪,可以实时计算出北向角。

    采用以下测量方法完成惯性导航设备向测姿设备的初始北向角传递:

    在桅杆未升起、处于机械锁紧状态时,测姿设备通过惯性导航设备获得北向角,即:测姿设备初始北向角=惯性导航设备方位角+安装误差。

    进行目标定位时,根据光电转塔输出的方位和俯仰角度、目标距离可以计算出目标在平台坐标系xgygzg中的坐标。这样,通过平台坐标系原点(图 2O2,即观测点)的大地坐标,以及平台坐标系相对于大地坐标系的旋转变换关系,即可求出目标的大地坐标。

    图  2  侦察相关坐标系
    Figure  2.  Related coordinate system for reconnaissance

    卫星定位装置测得的是O1点坐标,因为桅杆举升倾角较小,故O2点与O1点坐标可近似认为仅存在高程差。

    光电转塔基座与测姿仪固连,使得可以直接由测姿设备姿态角推算出转塔坐标系xgygzg与天-东-北坐标系的旋转变换关系。特别的,当安装使xdydzdxgygzg平行时,测姿设备给出的方位、俯仰、横滚角可作为xgygzg向天-东-北坐标系进行旋转变换的3个欧拉角。一般情况下,考虑xdydzdxgygzg的旋转变换,该变换相关的欧拉角作为安装误差参数,可以作为修正系统固有偏差的依据。

    坐标系均采用右手系。平台坐标系xgygzg以平台中心为原点,方位轴为x轴,方位角度解算器零位为z轴,方位角度解算器-90°位置为y轴。导航坐标系xdydzd以测姿仪安装定位面为基准,安装尽量保证与平台坐标系平行。本地坐标系xyz即天-东-北坐标系,原点与平台坐标系重合,以本地地平面法线方向为x轴,正东方向为y轴,正北方向为z轴。本地基准坐标系x′y′z′原点与本地坐标系重合,x, y, z轴方向与地心坐标系平行,本地基准坐标系与本地坐标系的方位偏离为经度L0,俯仰偏离为纬度B0。地心坐标系x″y″z″以地心为原点,以赤道0经度位置为x轴,以地理北极为z轴。

    定位模型中姿态角统一采用如下的三欧拉角定义:坐标系I′[O′:X′, Y′, Z′](旋转后的坐标系)相对于坐标系I[O′: X′, Y′, Z′]的欧拉角为(φ, θ, γ),即,坐标系I’由坐标系I分别绕OZ轴、OY轴,OX轴旋转φθγ角得到,角度方向按照右手准则定义。

    根据矢量转动原理,可得旋转变换矩阵TφTθTγ分别为

    $$ \begin{array}{l} {\mathit{\boldsymbol{T}}_\varphi } = \left[ {\begin{array}{*{20}{c}} {\cos \varphi }&{\sin \varphi }&0\\ { - \sin \varphi }&{\cos \varphi }&0\\ 0&0&1 \end{array}} \right]\;\;\;\;\;{\mathit{\boldsymbol{T}}_\theta }{\rm{ = }}\left[ {\begin{array}{*{20}{c}} {\cos \theta }&0&{ - \sin \theta }\\ 0&1&0\\ {\sin \theta }&0&{\cos \theta } \end{array}} \right]\\ {\mathit{\boldsymbol{T}}_\gamma } = \left[ {\begin{array}{*{20}{c}} 1&0&0\\ 0&{\cos \gamma }&{\sin \gamma }\\ 0&{ - \sin \gamma }&{\cos \gamma } \end{array}} \right] \end{array} $$

    则旋转变换矩阵为A=TγTθTφ,即旋转变换关系为

    $$ {\left[ {x{\rm{'}}, y{\rm{'}}, z{\rm{'}}} \right]^T} = \mathit{\boldsymbol{A}}{\left[ {x, y, z} \right]^{\rm{T}}} $$ (1)

    其中,

    $$ \mathit{\boldsymbol{A = }}\left[ {\begin{array}{*{20}{c}} {\cos \theta \cos \varphi }&{\cos \theta \sin \varphi }&{ - \sin \theta }\\ {\sin \gamma \sin \theta \cos \varphi - \cos \gamma \sin \varphi }&{\sin \gamma \sin \theta \sin \varphi + \cos \gamma \cos \varphi }&{\sin \gamma \cos \theta }\\ {\cos \gamma \sin \theta \cos \varphi + \sin \gamma \sin \varphi }&{\cos \gamma \sin \theta \sin \varphi + \sin \gamma \cos \varphi }&{\cos \gamma \cos \theta } \end{array}} \right] $$ (2)

    则逆变换为

    $$ {\left[ {x, y, z} \right]^{\rm{T}}} = {A^{ - 1}}{\left[ {x', y', z'} \right]^{\rm{T}}} $$ (3)

    变量定义如下:DHYaw为测姿设备方位角,DHPitch为测姿设备俯仰角,DHRoll为测姿设备横滚角;GDYaw为平台方位角,GDPitch为平台俯仰角;ZeroErYaw为平台系统零位与测姿仪系统零位的安装误差方位偏差,ZeroErPitch为俯仰偏差,ZeroErRoll为横滚偏差,系统校准时测得的固定参数;L0为基准点经度,B0为基准点纬度,TgDistance为目标距离。

    其中,GDYawGDPitch指示了目标在平台坐标系下的方位角,TgDistance表示目标与平台坐标系原点的距离,可根据这3个参数计算出目标在平台坐标系下的坐标:

    $$ \left\{ \begin{array}{l} {Z_g} = T{g_{{\rm{Distance}}}}\cos \left( {G{D_{{\rm{pitch}}}}} \right)\cos \left( {G{D_{{\rm{Yaw}}}}} \right)\\ {y_g} = - T{g_{{\rm{Distance}}}}\cos \left( {G{D_{{\rm{pitch}}}}} \right)\cos \left( {G{D_{{\rm{Yaw}}}}} \right)\\ {x_g} = T{g_{{\rm{Distance}}}}\cos \left( {G{D_{{\rm{pitch}}}}} \right) \end{array} \right. $$ (4)

    1) 平台坐标系到导航坐标系的转换

    建立过渡坐标系xbybzbxcyczc,其坐标轴定义为

    $$ \left\{ \begin{array}{l} {x_b} = {z_g}\\ {y_b} = - {y_g}\\ {z_b} = {x_g} \end{array} \right.\;\;\;\left\{ \begin{array}{l} {x_d} = {z_c}\\ {y_d} = - {y_c}\\ {z_d} = {x_c} \end{array} \right. $$ (5)

    则有:

    $$ {\left[ {{x_c}, {y_c}, {z_c}} \right]^{\rm{T}}} = A_1^{ - 1}{\left[ {{x_b}, {y_b}, {z_b}} \right]^{\rm{T}}} $$ (6)

    A1由(2)式计算出,其中

    $$ \left\{ \begin{array}{l} \varphi {\rm{ = }} - ZeroE{r_{{\rm{yaw}}}}\\ \theta = - ZeroE{r_{{\rm{Pitch}}}}\\ \gamma = ZeroE{r_{{\rm{Roll}}}} \end{array} \right. $$ (7)

    2) 导航坐标系到本地坐标系的转换

    建立过渡坐标系xbybzbxcyczc,其坐标轴定义为

    $$ \left\{ \begin{array}{l} {x_b} = {z_d}\\ {y_b} = - {y_d}\\ {z_b} = {x_d} \end{array} \right.\;\;\;\left\{ \begin{array}{l} x = {z_c}\\ y = - {y_c}\\ z = {x_c} \end{array} \right. $$ (8)

    则有:

    $$ {\left[ {{x_c}, {y_c}, {z_c}} \right]^{\rm{T}}} = A_2^{ - 1}{\left[ {{x_b}, {y_b}, {z_b}} \right]^{\rm{T}}} $$ (9)

    A2由(2)式计算出,其中,

    $$ \left\{ \begin{array}{l} \varphi = - D{H_{{\rm{Yaw}}}}\\ \theta = - D{H_{{\rm{Pitch}}}}\\ \gamma = D{H_{{\rm{Roll}}}} \end{array} \right. $$ (10)

    3) 本地坐标系到本地基准坐标系的转换

    本地坐标系与本地基准坐标系方位、俯仰偏离分别为L0B0,因此,变换关系为

    $$ {\left[ {x{'}, y{'}, z{'}} \right]^{\rm{T}}} = A_3^{ - 1}{\left[ {x, y, z} \right]^{\rm{T}}} $$ (11)

    A3由式(2)计算出,其中,

    $$ \left\{ \begin{array}{l} \varphi = {L_{\rm{0}}}\\ \theta = {B_{\rm{0}}}\\ \gamma = 0 \end{array} \right. $$ (12)

    4) 本地基准坐标到地心坐标的变换

    本地基准坐标系与地心坐标系平移量即为本地基准坐标系原点在地心坐标系下的xyz坐标{x0, y0, z0},可推导出:

    $$ \left\{ {\begin{array}{*{20}{l}} {{x_0} = \left( {N + h} \right)\cos B\cos L}\\ {{y_0} = \left( {N + h} \right)\cos B\sin L}\\ {{z_0} = \left[ {N\left( {1 - {e^2}} \right) + h} \right]{\rm{sin}}B} \end{array}} \right. $$ (13)

    其中, $N = \frac{a}{{\sqrt {1 - {e^2}{{\sin }^2}B} }} $,则变换关系为

    $$ \left\{ \begin{array}{l} x''{\rm{ = }}x' + {x_0}\\ y''{\rm{ = }}y' + {y_0}\\ z''{\rm{ = }}z' + {z_0} \end{array} \right. $$ (14)

    5) 地心坐标转换到经纬度

    根据(13)式,可导出地心坐标到经纬度的反算公式,其中纬度B的计算采用递归算法求解:

    $$ \left\{ {\begin{array}{*{20}{l}} {L = {\rm{a}}\tan \left( {\frac{{y''}}{{x''}}} \right)}\\ {B = {\rm{a}}\tan \left( {\frac{{Z + N{e^2}\sin B}}{{\sqrt {{{x''}^2} + {{y''}^2}} }}} \right)}\\ {H = \frac{{\sqrt {{{x''}^2} + {{y''}^2}} }}{{\cos B}} - N} \end{array}} \right. $$ (15)

    方案采用一只激光陀螺、一个双轴倾角仪,以及一块计算机板和一套二次电源,形成测量设备。将激光陀螺与双轴倾角仪组合安装于桅杆顶部,安装时保证激光陀螺仪的敏感轴与双轴倾角仪的敏感轴保持基本正交,利用软件通过旋转矩阵进行剩余安装偏角的补偿,使系统能够感测到3个正交轴上的角度变化或角增量变化。其中,双轴倾角仪感测导航系下水平方向上的角度变化,即俯仰角与横滚角变化。激光陀螺感测载体系下天向的角增量变化。

    车载的惯性导航装置为姿态测量装置传递初始信息,利用传感器感测到的角度与角增量信息在初始信息的基础上进行迭代解算,得到载体的航向变化。

    器件选型方面,选用的激光陀螺的精度为0.01°/h;倾角仪精度不低于0.011 2°;二次电源最大输出功率50 W;计算机板与激光陀螺采用RS422接口通信。

    光电设备上获得目标距离、相对平台零位的方位角、俯仰角后,经过平台坐标系与本方案设备坐标系、本地坐标系、本地基准坐标系、地心坐标系等的转换,应用卫星定位装置获得的本地坐标值,得到目标的大地坐标。

    将完成的设备固定在两轴转台上,进行室温下的静态和动态试验。

    在室温条件下,进入航向姿态测量状态后,模拟使用环境,同时摆动转台的主轴与俯仰轴(俯仰轴不超过±15°),将转台摆动到测量航向姿态的真实位置(以转台为基准),停止后记录下该时刻系统输出的航向角、俯仰角与横滚角信息,并与真值比较(以转台为基准),计算误差。测量出航向姿态的真实位置并记录数据。通过32组数据统计的结果如表 1所示。

    表  1  设备测试数据
    Table  1.  Measured data of equipment
    误差/mill
    俯仰 横滚 航向
    0.095 3 0.087 1 0.093
    下载: 导出CSV 
    | 显示表格

    利用水平仪调平两轴转台,固定测量设备,用水平仪测量出基准,使航向角、俯仰角与横滚角基准处于基准位置,将当前姿态信息与地理位置信息作为初始装订信息发送给航向姿态测量装置。当其进入航姿测量状态后每30 min记录一组航向角、俯仰角与横滚角,测试2 h。每测完一组,断电冷却2 h,再次进行相同测试。共测试5组,每组4个数据。测试结果如表 2所示。

    表  2  设备时间变化情况
    Table  2.  Variation with time of equipment
    0.5 h 1 h 1.5 h 2 h
    航向误差/mil 0.133 9 0.313 9 0.567 8 0.706 8
    俯仰误差/mil 0.103 0 0.106 4 0.107 4 0.095 6
    横滚误差/mil 0.079 0 0.075 0.073 4 0.073 0
    下载: 导出CSV 
    | 显示表格

    将桅杆式光电系统及测姿设备等安装在侦察车上,进行了外场试验,在桅杆举升(光电设备离地约5 m)、降落和车辆行进间桅杆举升(光电设备离地约3.5 m)、收藏等情况下,获得了目标大地坐标的多组数据,侦察车系统的水平圆概率误差满足了使用要求。

    表  3  系统对目标的定位侦察精度
    Table  3.  Positioning accuracy for target reconnaissance of system
    车辆状态 桅杆状态 定位精度
    驻车侦察 收藏 高程4.19 m,水平7.47 m
    举升 高程4.46 m,水平9.03 m
    收藏 高程7.29 m,水平7.26 m
    举升 高程8.79 m,水平4.55 m
    行进侦察 收藏 高程2.04 m,水平6.22 m
    举升 高程6.10 m,水平3.80 m
    下载: 导出CSV 
    | 显示表格

    采用桅杆式光电设备是提高侦察车战场适应性的重要措施。采用单一陀螺和倾角传感器组合,实现对桅杆升降过程中的航向角变化测量,结合侦察车的惯性导航装置给出的北向角度,通过各设备间坐标系的合理转换,能够有效控制桅杆升降中的误差对侦察车目标定位精度的影响,经过实验室测试和外场试验,结果表明能够满足侦察车的精度要求。

  • 图  1   BiseNet网络结构

    Figure  1.   Structure diagram of BiseNet network

    图  2   深度可分离卷积

    Figure  2.   Schematic of depthwise separable convolution

    图  3   改进后的空间路径

    Figure  3.   Schematic of improved spatial path

    图  4   Bneck结构图

    Figure  4.   Structure diagram of Bneck

    图  5   改进后的上下文路径

    Figure  5.   Schematic of improved context path

    图  6   通道注意力特征融合模块

    Figure  6.   Schematic of channel attention feature fusion module

    图  7   IDD数据集类别重新划分示意图

    Figure  7.   Schematic of category reclassification of IDD dataset

    图  8   预处理结果图

    Figure  8.   Preprocessing results graph

    图  9   F1-score和loss训练过程曲线变化图

    Figure  9.   Variation curves of F1-score and loss during training

    图  10   预测效果对比图

    Figure  10.   Comparison chart of prediction effect

    表  1   调整后的MobileNetV3-large特征提取网络

    Table  1   MobileNetV3-large feature extraction network after adjustment

    Input(H2×C操作nSE激活函数sout
    5122 × 3Conv2d1-HS216
    2562 × 16Bneck,3 × 31-ReLU116
    2562 × 16Bneck,3 × 31-ReLU224
    1282 × 24Bneck,3 × 31-ReLU124
    1282 × 24Bneck,5 × 51ReLU240
    642 × 40Bneck,5 × 52ReLU140
    642 × 40Bneck,3 × 31-HS280
    322 × 80Bneck,3 × 33-HS180
    322 × 80Bneck,3 × 32HS1112
    322 × 112Bneck,5 × 51HS2160
    162 × 160Bneck,5 × 52HS1160
    表中:HC表示特征的边长、通道数;Conv2d表示标准卷积;n表示需进行操作的次数;SE表示是否引入SE注意力;s表示步长;out表示输出通道数。
    下载: 导出CSV

    表  2   不同改进措施的模型性能

    Table  2   Model performance with different improvement measures

    模型MIOU/%F1-score/%Params
    Conv+Xception+FFM89.8392.661.54×106
    Conv+ResNet+FFM91.9394.321.29×107
    Conv+MobileNetv3+FFM92.4394.651.16×106
    DSConv+MobileNetv3+FFM92.6894.801.09×106
    DSConv+MobileNetv3+CAFFM95.4096.741.11×106
    下载: 导出CSV

    表  3   不同网络模型性能对比

    Table  3   Performance comparison of different network models

    模型F1-Score/%PA/%MIOU/%ParamsSpeed/
    f·s−1
    U-Net91.5695.6789.381.94×10626.17
    DeepLabV3+95.8597.4694.233.87×10715.21
    FCN-32S92.5496.1890.565.44×10728.63
    BiSeNet-resnet94.3296.2791.934.92×10723.57
    BiSeNet-xception92.6695.3189.831.54×10630.96
    本文96.7497.7895.401.11×10636.79
    下载: 导出CSV
  • [1] 周继苗, 李必军, 陈世增. 一种多层特征融合的道路场景实时分割方法[J]. 测绘通报,2020,514(1):10-15.

    ZHOU Jimiao, LI Bijun, CHEN Shizeng. A real-time segmentation method of road scene based on multi-layer feature fusion[J]. Bulletin of Surveying and Mapping,2020,514(1):10-15.

    [2]

    DENG L, YANG M, LIANG Z, et al. Fusing geometrical and visual information via superpoints for the semantic segmentation of 3D road scenes[J]. Tsinghua Science and Technology,2020,25(4):498-507. doi: 10.26599/TST.2019.9010038

    [3]

    DONG G, YAN Y, SHEN C, et al. Real-time high-performance semantic image segmentation of urban street scenes[J]. IEEE Transactions on Intelligent Transportation Systems,2020,22(6):3258-3274.

    [4]

    PAZ D, ZHANG H, LI Q, et al. Probabilistic semantic mapping for urban autonomous driving applications[C]//2020 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). Las Vegas, USA: IEEE, 2020: 2059-2064.

    [5] 黄俊, 侯北平, 董霏, 等. 基于方向纹理的非结构化道路消失点检测研究[J]. 图学学报,2019,40(1):131-136.

    HUANG Jun, HOU Beiping, DONG Fei, et al. Research on vanishing point detection of unstructured road based on directional texture[J]. Chinese Journal of Graphics,2019,40(1):131-136.

    [6] 郭昕刚, 王佳, 程超. 层次聚类算法和基于图的分割算法相融合的图像分割算法[J]. 国防科技大学学报,2022,44(3):194-200. doi: 10.11887/j.cn.202203023

    GUO Xingang, WANG Jia, CHENG Chao. Image segmentation algorithm for the fusion of hierarchical clustering algorithm and graph-based segmentation algorithm[J]. Journal of National University of Defense Technology,2022,44(3):194-200. doi: 10.11887/j.cn.202203023

    [7] 王翔, 张娟, 方志军. 基于最大熵和边缘信息的非结构化道路检测[J]. 电子科技,2020,33(1):23-28.

    WANG Xiang, ZHANG Juan, FANG Zhijun. Unstructured road detection based on maximum entropy and edge information[J]. Electronic Science and Technology,2020,33(1):23-28.

    [8]

    LONG J, SHELHAMER E, DARRELL T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(4):640-651. doi: 10.1109/TPAMI.2016.2572683

    [9] 张鑫, 姚庆安, 赵健, 等. 全卷积神经网络图像语义分割方法综述[J]. 计算机工程与应用,2022,58(8):45-57. doi: 10.3778/j.issn.1002-8331.2109-0091

    ZHANG Xin, YAO Qing’an, ZHAO Jian, et al. A review of fully convolutional neural network image semantic segmentation methods[J]. Computer Engineering and Applications,2022,58(8):45-57. doi: 10.3778/j.issn.1002-8331.2109-0091

    [10] 曹富强, 王明泉, 张俊生, 等. 基于深度学习的铸件X射线图像分割研究[J]. 应用光学,2021,42(6):1025-1033. doi: 10.5768/JAO202142.0602003

    CAO Fuqiang, WANG Mingquan, ZHANG Junsheng, et al. X-ray image segmentation of castings based on deep learning[J]. Journal of Applied Optics,2021,42(6):1025-1033. doi: 10.5768/JAO202142.0602003

    [11] 汪水源, 侯志强, 王囡, 等. 基于自适应模板更新与多特征融合的视频目标分割算法[J]. 光电工程,2021,48(10):21-30.

    WANG Shuiyuan, HOU Zhiqiang, WANG Nan, et al. Video target segmentation algorithm based on adaptive template update and multi-feature fusion[J]. Opto-Electronic Engineering,2021,48(10):21-30.

    [12] 王龙飞, 严春满. 道路场景语义分割综述[J]. 激光与光电子学进展,2021,58(12):44-66.

    WANG Longfei, YAN Chunman. Overview of semantic segmentation of road scenes[J]. Advances in Lasers and Optoelectronics,2021,58(12):44-66.

    [13]

    YU C, WANG J, PENG C, et al. Bisenet: Bilateral segmentation network for real-time semantic segmentation[C]//Proceedings of the European conference on computer vision (ECCV). Munich, Germany: Springer-Verlag Berlin, 2018: 325-341.

    [14]

    CHEN L C, PAPANDREOU G, KOKKINOS I, et al. Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution, and fully connected crfs[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,40(4):834-848.

    [15]

    PENG C, ZHANG X, YU G, et al. Large kernel matters—improve semantic segmentation by global convolutional network[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). New York, USA: IEEE, 2017: 1743-1751.

    [16]

    YANG M Y, KUMAAR S, YE L, et al. Real-time semantic segmentation with context aggregation network[J]. ISPRS Journal of Photogrammetry and Remote Sensing,2021,178(12):124-134.

    [17]

    HOEARD A, SANDLER M, CHU G, et al. Searching for mobilenetv3[C]//Proceedings of the IEEE/CVF international conference on computer vision. Los Alamitos, USA: IEEE , 2019: 1314-1324.

    [18]

    VARMA G, SUBRAMANIAN A, NAMBOODIRI A, et al. IDD: a dataset for exploring problems of autonomous navigation in unconstrained environments[C]//2019 IEEE Winter Conference on Applications of Computer Vision (WACV). New York, USA: IEEE, 2019: 1743-1751.

    [19] 郭列, 张团善, 孙威振, 等. 融合空间注意力机制的图像语义描述算法[J]. 激光与光电子学进展,2021,58(12):329-338.

    GUO Lie, ZHANG Tuanshan, SUN Weizhen, et al. Image semantic description algorithm integrating spatial attention mechanism[J]. Advances in Lasers and Optoelectronics,2021,58(12):329-338.

    [20]

    JADON S. A survey of loss functions for semantic segmentation[C]//2020 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB). New York, USA: IEEE, 2020: 1-7.

    [21] 徐聪, 王丽. 基于改进DeepLabv3+网络的图像语义分割方法[J]. 激光与光电子学进展,2021,58(16):225-232.

    XU Cong, WANG Li. Image semantic segmentation method based on improved DeepLabv3+ network[J]. Advances in Laser and Optoelectronics,2021,58(16):225-232.

  • 期刊类型引用(1)

    1. 梁秀娟,嵇海旭. 方差分析法下激光陀螺仪机械振动抑制技术. 机械设计与制造. 2022(05): 88-91+98 . 百度学术

    其他类型引用(1)

图(10)  /  表(3)
计量
  • 文章访问数:  325
  • HTML全文浏览量:  94
  • PDF下载量:  69
  • 被引次数: 2
出版历程
  • 收稿日期:  2022-07-04
  • 修回日期:  2022-09-28
  • 网络出版日期:  2023-02-06
  • 刊出日期:  2023-05-14

目录

/

返回文章
返回