基于深度学习的三维人脸识别文献综述

 2022-10-27 20:20:19

文献综述:

三维人脸识别被定义为一种生物识别技术[1],该技术使用单独的三维脸部形状来使用目标图像和人脸图库的三维模型来识别人脸。图1中描绘了一般的三维人脸识别系统。在脸部采集期间拍摄的三维人脸可能包含不需要的身体部位或头发,耳朵,脖子,肩膀以及需要有效消除的眼镜和饰品等配件[2],首先第一步就是利用预处理从整个扫描中提取面部形状的分割过程。其次利用三维配准技术[3],将面部形状需要在实际匹配之前对齐。最后探针(查询)扫描的特征向量被提取出来,并逐一匹配图库特征向量。当提取出来的特征向量和图库中的特征向量匹配距离低于设定阈值,最后的结果则为相应特征向量的类。

图1 3D人脸识别系统

在三维人脸识别上的算法已经趋于成熟[6],例如:Mian等人[4]提出了一种高度可重复的3D面部扫描关键点检测算法,他们将3D与2D之间不变的面部特征变换(SIFT)进行融合,以开发多模式人脸识别。然而,关键点和特征对检测面部表情都很敏感。为了提高对面部表情的鲁棒性,Mian等人[5]提出了一种基于面部特征的多模式混合方法(MMH),该方法利用了二维和三维模态中的局部和全局特征。他们方法的一个关键组成部分是ICP[7]算法的变体,由于其迭代性质,具有十分复杂的计算量。Berretti等人[8]利用一个3D多面meshDOG关键点和局部几何直方图来进行特征提取,而Drira等人[9]通过从鼻尖发出的径向曲线表示面部表面。但到此前为止,没有任何传统的方法已经实施了大规模的3D人脸识别。

一些研究者将三维的人脸数据映射到正视投影模型下来研究。Antonio Rama[10]等提出了一种将多个视角下的人脸图像进行投影自动创建 180˚人脸纹理图像的方法,进而根据关键点对纹理图像整体和人脸特征进行对准,最后使用对姿态变化较为鲁棒的P2CA[11]方法进行分类,这种方法对于姿态变化具有较好的适应性,不过获取注册人脸数据时较为繁琐[12],装置较为复杂,而且需要注册人的主动配合。Liu [13]等使用球面来建模人脸点云,把人脸深度数据投影为球面图像,对人脸的姿态变化影响具有很好的鲁棒性。鱼涛[14]提出了一种由二维球面展开图表示的人脸三维数据。对于待处理的三维人脸点云数据,可通过优化计算得到拟合的球心和半径等参数,利用该球心作为中心点就可以把原始点云数据变换到以拟合球心为原点的球面坐标系下。对原始三维人脸点云数据进行投影和插值就可得到映射到拟合球体表面的球面展开的深度图像,用同样的方法对原始点云的颜色信息进行插值就可以得到球面展开的纹理图像。

与其他计算机视觉应用的进步类似,深度学习在二维人脸识别中已经实现了量子跳跃。三年前,Facebook AI组织提出了一个九层DeepFace[15]模型,主要由两个卷积,三个本地连接和两个完全连接(FC)层组成。该网络接受了4,030个身份的440万 2D面部图像的训练,并且在基准LFW[16]数据集上达到了97.35%的准确率,比之前的技术水平高出27%。一年后,谷歌公司紧跟步伐,基于11个卷积和3个FC层的FaceNet[17]问世,该网络的区别在于其具有800万身份的2亿张人脸图像和三重丢失函数[18]的训练数据集,同时据称LFW的面部识别准确率为98:87%。 DeepFace和FaceNet都是在私人数据集上进行培训的,而这些数据集对更广泛的研究界来说并不可用。然而,最近MegaFace Challenges[19]声称现有的2D基准数据集已经达到饱和,并且建议将数百万张面孔添加到这些数据集的图库以匹配真实世界的场景。他们表明,当公共面部识别基准数据集中添加了几千个样本时,最先进的2D网络的人脸识别准确性下降了20%以上[20]。二维数据的CNN在大量的训练的同时,也给了3D模型发展,当降维进行训练时匹配率达到了最佳,然而,只有在大尺寸图库测试时才能验证其真实性能。

参考文献

[1]蔡宇. 三维人脸检测与识别技术研究[D]. 吉林大学, 2013.

[2]李晓莉. 表情变化条件下的三维人脸识别[D]. 东南大学, 2010.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。