Method for cross-age face recognition based on identity-age sharing features
-
摘要:
从人脸特征中剔除年龄相关特征,获得纯粹的身份特征,是实现跨年龄人脸识别的重要手段;然而,主流的身份特征提取方法忽略了对身份-年龄共享特征的处理,导致提取到的身份特征不完整。为此,提出引入身份-年龄共享特征的新方法,将混合人脸特征解耦为纯年龄相关特征、纯身份相关特征以及身份-年龄共享特征,然后将纯身份相关特征和身份-年龄共享特征进行多维耦合,从而得到完整的身份特征,有效提高跨年龄人脸识别的准确率。在人脸老化基准数据集Age-DB30上本文方法的识别准确率达到了97.07%,在LFW数据集上达到了99.73%的识别准确率,证明了所提方法的有效性与先进性。
Abstract:Removing age-related features from face features to obtain pure identity features is an important means to achieve cross-age face recognition. However, the mainstream identity feature extraction methods ignore the processing of identity-age sharing features, resulting in incomplete extracted identity features. To this end, a new method of introducing identity-age sharing features was proposed, decoupling mixed face features into pure age-related features, pure identity-related features and identity-age sharing features, and then multi-dimensional coupling of pure identity-related features and identity-age sharing features to obtain complete identity features and effectively improving the accuracy of cross-age face recognition. The proposed method achieved a recognition accuracy of 97.07% on the face aging benchmark dataset Age-DB30 and 99.73% on the LFW dataset, demonstrating the effectiveness and advancedness of the proposed method.
-
Keywords:
- face recognition /
- age invariant /
- transformation /
- canonical correlation analysis
-
引言
无人机作为新型作战力量,在长航时、高威胁区域、广域预警探测能力等方面发挥了显著作用,越来越受到世界各国的重视[1]。随着无人机越来越多地应用到军事领域中,传统手动操控方式的工作量急剧增加,人力耗费大,侦察效率低,对于瞬息万变的战场态势,如果完全依靠人工操作,必然会贻误最佳作战时机[2],因此迫切需要实现自动化、智能化的自主侦察方式,以提高侦察效率[3]。
自动目标识别技术是无人机实现自主侦察的关键技术[4]。过去由于自动目标识别技术不成熟,限制了自主侦察模式的应用,但是近些年来,受益于计算机硬件性能的提升和深度学习理论的不断完善,加快了目标识别技术从理论研究走向无人机实际作战应用的步伐[5-9]。基于深度学习的目标识别算法研究越来越多,比如文献[10]~[15]分别在深度学习算法基础上,对目标识别的处理速度和准确率进行了提升。在2016年大规模视觉挑战赛ILSVRC中,基于深度学习算法的分类错误率低至2.991%,远低于人类平均识别错误率5.1%,体现了在大规模数据集中的优势[5,10]。随着目标识别算法的应用日渐成熟,自主侦察模式的应用提上了日程,但是目前国内外鲜有针对自主侦察模式的研究。本文对自主侦察模式参数建立了数学模型,并针对案例做了仿真计算,为自主侦察模式的应用提供了理论支撑。
1 自主侦察模式概述
自主侦察模式把无人机的自动巡航功能和光电载荷的稳瞄稳像、自动扫描、自动识别、自动跟踪、激光测距、目标地理定位等功能有机结合起来,整个过程不需要人工干预,具有全自动化、侦察效率高等优点,这种智能化的侦察模式大大节省了人力,提高了战场作战效率。自主侦察模式的流程如图1所示。具体流程为:无人机起飞前,根据侦察任务进行模式参数计算,根据计算结果规划飞行航路和设定光电载荷的参数,然后无人机按照预定航路飞行到侦察区域上空自动巡航,光电载荷则对侦察区域进行自动扫描,同时对目标进行自动识别和分类,当识别到目标后,停止自动扫描,进行自动跟踪、激光测距、目标地理定位、上报目标信息(包括目标类型、地理位置等)等一系列操作。
为了使自主侦察模式达到识别率高、全覆盖、侦察速度快的目的,需要合理设置无人机和光电载荷的参数,满足各个参数的约束条件,根据实际情况确定最佳参数方案。
2 自主侦察模式的参数计算
2.1 参数介绍及计算链
自主侦察模式涉及无人机的飞行参数、光电载荷参数等,计算过程中涉及到的主要参数见表1所示。本文以光电载荷吊装状态为例,方位角0°与无人机机头方向一致,俯仰角方向定义水平为0°,抬头为正。由于实际情况的复杂性,因此在建立数学模型时做了简化处理。
表 1 自主侦察模式涉及的主要参数Table 1. Main parameters involved in autonomous reconnaissance mode序号 参数名称 含义 1 视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$/(°) 光电载荷内的光电传感器的水平视场角和垂直视场角 2 像元尺寸$\eta \times \eta $/µm 光电载荷内的光电传感器的像元尺寸 3 分辨率${F_{\text{H}}} \times {F_{\text{V}}}$/pixel 光电载荷内的光电传感器的分辨率 4 扫描角速度${V_S}$/(°)/s 光电载荷自动扫描状态下在方位上的角速度 5 扫描角度范围${\beta _r}$/(°) 光电载荷自动扫描状态下在方位上的角度范围 6 俯仰角$\alpha $/(°) 光电载荷在自动扫描过程中,其光轴与水平面之间的夹角,向上为正,向下为负。 7 飞行速度${V_f}$/m/s 无人机在自动巡航时的飞行速度 8 飞行高度${H_f}$/m 无人机在自动巡航时距离地面的高度 9 目标尺寸${A_{\text{H}}} \times {A_{\text{V}}}$/m 侦察目标的实际尺寸 10 自动识别的最少目标像素数$m \times n$/pixel 自动识别模块可以识别的最少目标的像素数,由自动识别模块的识别能力决定 11 侦察区域大小$j \times k$/m 矩形侦察区域的长和宽 12 扫描纵深${L_{{\text{FOV}}}}$/m 扫描时传感器垂直视场在地面上覆盖的宽度 13 纵深时间$ {T_{{\text{FOV}}}} $/s 无人机飞过扫描纵深的时间 14 中心目标距离${D_{{\text{center}}}}$/m 光电载荷视场中心的目标与光电载荷之间的距离 15 视场上极限中心目标距离${D_{{\text{up}}}}$/m 光电载荷内的光电传感器视场上极限中心对应的目标和光电载荷之间的
距离16 目标距离阈值${D_{{\mathrm{th}}}}$/m 根据最少目标像素数的识别要求而计算的目标距离 17 最大目标距离${D_{\max }}$/m 视场内的所有目标和光电载荷的距离的最大值 18 投影距离${L_D}$/m 中心目标距离在地面上的投影距离 19 扫描单程时间$ {T_S} $/s 自动扫描时光电载荷的方位角从左极限转到右极限(或从右极限转到左极限)所需的时间 20 原始扫描宽度$ W $/m 初步计算的扫描宽度 21 重叠率$ p $ 两个扫描带重叠部分的尺寸与扫描带尺寸之间的比率 22 修正扫描宽度$ W' $/m 考虑重叠率之后的扫描宽度 23 航路路程$ Q $/m 无人机侦察完指定区域需要飞行的
路程24 侦察时间$ {T_R} $/s 无人机侦察完指定区域所需的时间 计算过程中,自主侦察参数的计算链如图2所示。从图2中可以看出计算过程和各个参数之间的相互关系。
2.2 目标距离阈值${D_{\text{th}}}$
目标距离是光电载荷与目标之间的直线距离,它决定了目标在图像中的像素数。目标识别模块对目标有最少目标像素数要求,如果目标像素数小于要求,则不能识别目标,因此,可根据自动识别的最少目标像素数计算目标距离阈值${D_{\text{th}}}$。
已知传感器像元尺寸$\eta \times \eta $、传感器视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$、传感器分辨率${F_{\text{H}}} \times {F_{\text{V}}}$、自动识别的最少目标像素数$m \times n$、目标尺寸${A_{\text{H}}} \times A_{\text{V}}^{}$,分别按照目标水平和垂直2个方向计算,得到$ {D}_{\text{H}}=\dfrac{{A}_{\text{H}}}{\mathrm{tan}(m\times {\theta }_{\text{H}}/{F}_{\text{H}})} $和$ {D}_{\text{V}}=\dfrac{{A}_{\text{V}}}{\mathrm{tan}(n\times {\theta }_{\text{V}}/{F}_{\text{V}})} $,取${D_{\text{H}}}$和${D_{\text{V}}}$的最小值为目标距离阈值${D_{\text{th}}}$。
目标距离与目标识别率成反比,与侦察效率成正比。目标距离越大,扫描时瞬时视场侦察的区域越大,侦察效率越高,但图像上的目标像素数则越少,识别率越低;目标距离越小,图像上的目标的像素数越多,识别率越高,但是扫描时瞬时视场侦察的区域越小,侦察效率越低。
2.3 光电载荷俯仰角$ \alpha $
无人机飞行高度${H_f}$、中心目标距离${D_{{\text{center}}}}$、光电载荷俯仰角$\alpha $三者之间的关系如图3所示。因此,由图3几何关系可计算俯仰角$\alpha $:
$$ \alpha {\text{ = }}\frac{{180}}{{\text{π }}} \times \arcsin \left( {\frac{{{H_f}}}{{{D_{{\text{center}}}}}}} \right) $$ (1) 由图3可知,光电载荷光轴与垂直方向的夹角$\delta $为
$$ \delta = 90 - \alpha $$ (2) 根据图3可得,中心目标距离${D_{{\text{center}}}}$在地面上的投影距离${L_D}$为
$$ {L_D} = {D_{{\text{center}}}} \times \cos \alpha $$ (3) 2.4 扫描纵深${L_{{\text{FOV}}}}$
根据光电载荷光轴与垂直方向的夹角$\delta $、无人机飞行高度${H_f}$、传感器视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$,可计算出扫描纵深${L_{{\text{FOV}}}}$。
如图4所示,传感器视场下极限与垂直方向的夹角为${\delta _{{\text{down}}}}$,对应在地面上的投影距离为${L_{{\text{down}}}}$;传感器视场上极限与垂直方向的夹角为${\delta _{{\text{up}}}}$,对应在地面上的投影距离为${L_{{\text{up}}}}$,根据文献[16]中分辨能力分析模型,计算扫描纵深${L_{{\text{FOV}}}}$如下:
$$ {\delta _{{\text{down}}}} = \delta - {\theta _{\text{V}}}/2 $$ (4) $$ {\delta _{{\text{up}}}} = \delta + {\theta _{\text{V}}}/2 $$ (5) $$ {L_{{\text{down}}}}{\text{ = }}{H_f} \times \tan {\delta _{{\text{down}}}} $$ (6) $$ {L_{{\text{up}}}} = {H_f} \times \tan {\delta _{{\text{up}}}} $$ (7) $$ {L_{{\text{FOV}}}} = {L_{{\text{up}}}}{{ - }}{L_{{\text{down}}}} $$ (8) 根据式(2)、式(4)~式(8),可得:
$$ {L}_{\text{FOV}}={H}_{f}\times [\mathrm{tan}(90-\alpha +{\theta }_{\text{V}}/2)-\mathrm{tan}(90-\alpha -{\theta }_{\text{V}}/2)]\;\;\;\;\;\;\;\;\;\;\;\;\; $$ (9) 2.5 最大目标距离${D_{\max }}$
为了判断视场内所有目标是否都满足自动识别的要求,需要计算最大目标距离${D_{\max }}$,${D_{\max }}$的计算示意图如图5所示。
如图5(a)所示,视场上极限中心目标距离${D_{{\text{up}}}}$可由式(10)计算:
$$ {D_{{\text{up}}}}{\text{ = }}\frac{{{H_f}}}{{\cos {\delta _{u{\text{p}}}}}} $$ (10) 如图5(b)所示,最大目标距离${D_{\max }}$可由式(11)计算:
$$ {D_{\max }}{\text{ = }}\frac{{{D_{{\text{up}}}}}}{{\cos ({\theta _{\text{H}}}/2)}} $$ (11) 根据式(2)、式(5)、式(10)和式(11)可推导出:
$$ {D}_{\mathrm{max}}\text=\frac{{H}_{f}}{\mathrm{cos}(90-\alpha +{\theta }_{\text{V}}/2)\times \mathrm{cos}({\theta }_{\text{H}}/2)} $$ (12) 同一个视场内,不同位置的目标距离是不一样的,因此,应保证最大目标距离${D_{\max }}$≤目标距离阈值${D_{{\mathrm{th}}}}$,才能满足在自动扫描时图像上所有目标都能够满足识别要求。
2.6 纵深时间${T_{{\text{FOV}}}}$和扫描单程时间$ {T_S} $
扫描角度范围$ {\beta _r} $、扫描单程时间$ {T_S} $、扫描角速度${V_S}$三者之间的关系为
$$ {T_S} = {\beta _r}/{V_S} $$ (13) 无人机飞行速度${V_f}$、扫描纵深${L_{{\text{FOV}}}}$、纵深时间${T_{{\text{FOV}}}}$三者之间的关系为
$$ {T_{{\text{FOV}}}} = {L_{{\text{FOV}}}}/{V_f} $$ (14) 为使侦察效率最大,应遵循不漏扫、重复扫描区域最小的原则,如图6(a)所示。因此,光电载荷从右极限向左极限扫描,然后再从左极限向右极限扫描,时间应等于纵深时间${T_{{\text{FOV}}}}$,即:
$$ {T_{{\text{FOV}}}} = 2 \times {T_S} $$ (15) 如果式(14)不成立,则会出现以下两种情况:
1) ${T_{{\text{FOV}}}} < 2 \times {T_S}$,该情况下会漏扫,如图6(b)所示,${T_{{\text{FOV}}}}$越小,漏扫的区域越大;
2) ${T_{{\text{FOV}}}} > 2 \times {T_S}$,该情况下重复扫描区域增大,如图6(c)所示,${T_{{\text{FOV}}}}$越大,重复扫描区域越大,侦察效率越低。
在实际应用中,要保证${T_{{\text{FOV}}}} \geqslant 2 \times {T_S}$,即不出现漏扫情况。根据式(13)、式(14)和式(15)可推导出:
$$ {\beta _r} = \frac{{{V_S} \times {L_{{\text{FOV}}}}}}{{2 \times {V_f}}} $$ (16) 扫描速度对图像质量和侦察效率有影响。自动扫描时,积分时间内成像在传感器光敏面上的场景有像移,导致图像模糊,降低了图像质量[17-18]。扫描越快,侦察效率越高,但图像质量越差,识别率越低,虚警率越高,因此,需要合理设置扫描速度。
2.7 原始扫描宽度$ W $和修正扫描宽度$ W' $
自主侦察时,在光电载荷自动扫描与无人机直线飞行共同作用下,会扫描一个带状区域(简称扫描带)。为了简化计算,扫描带指传感器光轴的扫描覆盖范围,而不是传感器整个瞬时视场的扫描覆盖范围。
如图7所示,根据中心目标距离${D_{{\text{center}}}}$和扫描角度范围${\beta _r}$,计算原始扫描宽度$ W $为
$$ W = 2 \times {D_{{\text{center}}}} \times \tan \frac{{{\beta _r}}}{2} $$ (17) 实际扫描带两端并不是整齐的,而是锯齿状的,如图8所示。为了避免由于锯齿问题出现漏扫的情况,在实际扫描时,可以把2个扫描带之间进行重叠。假设重叠率为$ p $,那么考虑重叠率之后的修正扫描宽度$ W' $为
$$ W' = W \times (1 - p) $$ (18) 2.8 航路路程$ Q $和侦察时间$ {T_R} $
假设对一个指定矩形区域$j \times k$进行侦察,那么需要计算侦察该区域所需的时间,即侦察时间$ {T_R} $。首先对无人机规划“S”形的航路,航路之间的间距设置为修正扫描宽度$ W' $,如图9所示。规划完航路之后,计算航路路程$ Q $,最后结合无人机飞行速度${V_f}$,计算侦察时间$ {T_R} $:
$$ {T_R} = Q/{V_f} $$ (19) 需要注意的是,无人机在“S”形航路两端掉头过程中,由于无人机位置与扫描区域位置存在偏差(其偏差大小为投影距离${L_D}$),容易在侦察区域边缘出现漏扫问题,可结合参数${L_D}$延长侦察区域外的航路,以保证不漏扫。为了简化计算,航路掉头的飞行时间不计入侦察时间内。
2.9 计算过程特点分析
计算过程有如下特点:
1) 涉及的参数多,约束条件多,需要在符合各参数约束条件前提下,计算出最佳自主侦察参数。
2) 由于不同侦察系统的约束条件不一定相同,因此哪些参数是已知的,哪些参数是计算结果,以及计算顺序等情况也不尽相同,需要根据实际情况进行分析。
3) 在建立数学模型时,对实际应用中的复杂情况进行了简化,例如把实际产生的扫描带两端类似锯齿的形状简化为直线,计算侦察时间时不考虑无人机在航路两端掉头时的飞行时间等。
3 仿真计算
以某无人机侦察系统为例,假设对5 000 m×5 000 m的矩形区域执行自主侦察任务,在达到自动识别最少目标像素数要求、侦察区域全覆盖的前提下,计算所需的侦察时间。已知条件有:目标尺寸2.3 m×2.3 m;传感器参数为连续变焦,视场3°×1.7°~55°×30.9°,分辨率1 920 pixel×1 080 pixel,像元尺寸3.45 µm,自动识别要求最少目标像素为20 pixel×20 pixel,重叠率$ p $为10%。
根据建立的数学模型进行仿真计算,得到了3个方案,如表2所示。
表 2 自主侦察仿真计算的3个方案Table 2. Three schemes for simulation calculation of autonomous reconnaissance序号 参数名称 方案1 方案2 方案3 1 飞行高度${H_f}$/m 300 300 600 2 飞行速度${V_f}$/m/s 35 35 35 3 视场角${\theta _{\text{H}}} \times {\theta _{\text{V}}}$/(°) 5.5×3.09 3×1.7 5. 5×3.09 4 俯仰角$\alpha $/(°) −9.59 −9.59 −19.4 5 扫描角度范围${\beta _r}$/(°) 14 7 7 6 扫描角速度${V_S}$/(°/s) 1.7 1.7 1.7 7 中心目标距离${D_{{\text{center}}}}$/m 1 800 1 800 1 800 8 目标距离阈值${D_{th}}$/m 2 300 4 216 2 300 9 最大目标距离${D_{\max }}$/m 2 144 1 973 1 950 10 纵深时间$ {T_{{\text{FOV}}}} $/s 17.1 9.1 8.4 11 扫描单程时间$ {T_S} $×2/s 16.4 8.2 8.2 12 修正扫描宽度$ W' $/m 393 197 197 13 侦察时间$ {T_R} $/s 1 857 3 714 3 714 经过对3个方案进行分析,得到如下结论:
1) 这3个方案都满足了${D_{\max }} \leqslant {D_{{\text{th}}}}$、${T_{{\text{FOV}}}} \geqslant 2 \times {T_S}$,说明满足自动识别对目标像素数的要求,没有漏扫,并且也说明方案并不是唯一的。
2) 方案2和方案1对比可知,视场越小,目标的像素数就越大,识别率越高,但是航路间距也越小,侦察时间越长。
3) 方案3和方案1对比可知,飞行高度不同,导致俯仰角、扫描角度范围、目标像素数、航路间距等参数也不同。飞行高度越大,扫描角度越小,航路间距越小,侦察时间越长。
4) 方案2和方案3对比可知,虽然侦察时间相同,但是参数方案不同,最终的实际侦察效果也不一样。
总之,3个方案各有特点,方案1的侦察时间最短;方案2的目标距离阈值最大,相同距离时识别目标的像素数最多,识别率最高;方案3的俯仰角绝对值最大,侦察时目标不容易被遮挡。因此,应用时根据实际情况计算参数方案。
4 结论
本文研究了无人机载光电载荷的自主侦察模式主要参数的计算方法,分析了各参数的意义及各个参数之间的相互影响,进行了仿真计算,并对仿真结果进行了分析,对自主侦察模式的应用起到了理论指导作用。但是由于实际情况的复杂性,有些问题尚未展开分析,比如扫描带的重叠率设置多大合适,扫描角速度对图像模糊的影响程度如何,光电载荷横滚安装状态的参数计算,多目标识别的策略等,这些问题可作为下一步的研究方向。
-
表 1 本文所采用的数据集
Table 1 Adopted data sets
表 2 不同的方法在4个数据集上的准确率
Table 2 Accuracy of different methods on four data sets
Acc/% 表 3 消融实验
Table 3 Ablation test
Acc/% Model AgeDB-30 CACD-VS CALFW Baseline 96.23 99.14 95.27 Baseline + Age 96.25 99.18 95.30 ISF(Our) 97.07 99.58 95.73 -
[1] CAO Q, SHEN L, XIE W, et al. Vggface2: A dataset for recognising faces across pose and age[C]//2018 13th IEEE international conference on automatic face & gesture recognition (FG 2018). Xi'an, China: IEEE, 2018: 67-74.
[2] 宋力争, 林冬云, 彭侠夫, 等. 基于深度学习的patch-match双目三维重建[J]. 应用光学,2022,43(3):436-443. doi: 10.5768/JAO202243.0302003 SONG Lizheng, LIN Dongyun, PENG Xiafu, et al. Patch-match binocular 3D reconstruction based on deep learning[J]. Journal of Applied Optics,2022,43(3):436-443. doi: 10.5768/JAO202243.0302003
[3] GUO Y, ZHANG L, HU Y, et al. Ms-celeb-1m: a dataset and benchmark for large-scale face recognition[C]//European conference on computer vision. Amsterdam, Netherlands: Springer, Cham, 2016: 87-102.
[4] SUN Y, CHEN Y, WANG X, et al. Deep learning face representation by joint identification-verification[J]. Advances in neural information processing systems,2014,2(12):1988-1996.
[5] TAIGMAN Y, YANG M, RANZATO M A, et al. Deepface: closing the gap to human-level performance in face verification[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Columbus, OH, USA: IEEE, 2014: 1701-1708.
[6] ANTIPOV G, BACCOUCHE M, DUGELAY J L. Face aging with conditional generative adversarial networks[C]//2017 IEEE international conference on image processing (ICIP). Piscataway, NJ: IEEE, 2017: 2089-2093.
[7] ZHANG Z, SONG Y, QI H. Age progression/regression by conditional adversarial autoencoder[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, HI, USA: IEEE, 2017: 5810-5818.
[8] GONG D, LI Z, LIN D, et al. Hidden factor analysis for age invariant face recognition[C]// 2013 IEEE International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE, 2013: 2872-2879.
[9] WANG H, GONG D, LI Z, et al. Decorrelated adversarial learning for age-invariant face recognition[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE, 2019: 3527-3536.
[10] HUANG Z, ZHANG J, SHAN H. When age-invariant face recognition meets face age synthesis: A multi-task learning framework[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA: IEEE, 2021: 7282-7291.
[11] WU H, XIAO B, CODELLA N, et al. Cvt: introducing convolutions to vision transformers[C]//2021 IEEE/CVF International Conference on Computer Vision (ICCV). Montreal, QC, Canada: IEEE, 2021: 22-31.
[12] SRINIVAS A, LIN T Y, PARMAR N, et al. Bottleneck transformers for visual recognition[C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Nashville, TN, USA: IEEE, 2021: 16519-16529.
[13] CAO K, RONG Y, LI C, et al. Pose-robust face recognition via deep residual equivariant mapping[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 5187-5196.
[14] WANG Y, GONG D, ZHOU Z, et al. Orthogonal deep features decomposition for age-invariant face recognition[C]//Proceedings of the European conference on computer vision (ECCV). Munich, Germany: Springer, Cham, 2018: 738-753.
[15] 孙文斌, 王荣, 孙连烛, 等. 基于深度学习的跨年龄人脸识别技术研究[J]. 激光与光电子学进展,2022,59(2):1-16. SUN Wenbing, WANG Rong, SUN Lianzhu, et al. Deep learning for cross-age face recorgnition[J]. Laser & Optoelectronics Progress,2022,59(2):1-16.
[16] DENG J, GUO J, XUE N, et al. Arcface: additive angular margin loss for deep face recognition[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Long Beach, CA, USA: IEEE , 2019: 4690-4699.
[17] WANG H, WANG Y, ZHOU Z, et al. Cosface: large margin cosine loss for deep face recognition[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 5265-5274.
[18] 刘成, 曹良才, 靳业, 等. 一种基于Transformer的跨年龄人脸识别方法[J]. 激光与光电子进展, 2022, 60(10): 1-11. LIU Cheng, CAO Liangcai, JING Ye, et al. Transformer for age-invariant face recognition[J]. Laser & Optoelectronics Progress, 2022, 60(10): 1-11.
[19] MOSCHOGLOU S, PAPAIOANNOU A, SAGONAS C, et al. Agedb: the first manually collected, in-the-wild age database[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Honolulu, HI, USA: IEEE, 2017: 51-59.
[20] CHEN B C, CHEN C S, HSU W H. Face recognition and retrieval using cross-age reference coding with cross-age celebrity dataset[J]. IEEE Transactions on Multimedia,2015,17(6):804-815. doi: 10.1109/TMM.2015.2420374
[21] ZHENG T, DENG W, HU J. Cross-age lfw: a database for studying cross-age face recognition in unconstrained environments[EB/OL]. [2022-08-22]. https://arxiv.org/pdf/1708.08197.pdf.
[22] HUANG G B, MATTAR M, BERG T, et al. Labeled faces in the wild: a database forstudying face recognition in unconstrained environments[C]//Workshop on faces in'Real-Life'Images: detection, alignment, and recognition. Marseille, France: University of Massachusetts, Amherst, 2008: 7-49.
[23] SZEGEDY C, LIU W, JIA Y, et al. Going deeper with convolutions[C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Boston, USA: IEEE, 2015: 1-9.
[24] MISRA D. Mish: a self regularized non-monotonic neural activation function[J]. arXiv Preprint,2019,4(2):1048550.