虚拟角色面部模拟技术研究文献综述

 2022-09-24 14:55:57

文献综述(或调研报告):

人脸动画是由Parke[1]提出的基于纹理投射的多边形格网的3D人脸模型,其动画效果是通过关键帧插值生成的。在此基础上,人们逐渐发展了对脸部的多种建模方法,创造了以语音及其情感为输入,相应生动自然的面部动画为输出的技术。为了使动画更加生动,面部表情与人脸动画的融合也被许多研究者纳入到考虑范围。

现有的语音驱动人脸动画的方法可粗略分为以下几类:基于声道信息[2]或发音音素[3]从音频和视频中提取口型特征的映射;利用基于参数[4]或生理[5]的脸部模型构建动画;利用脸部动作与表情向量融合[6]或由动作挑选相应情感[7]的情绪处理方法。

语音驱动的人脸动画流程图如图1所示。

开始

音视频数据

特征提取

音视频映射

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。