文献综述(或调研报告):
人脸动画是由Parke[1]提出的基于纹理投射的多边形格网的3D人脸模型,其动画效果是通过关键帧插值生成的。在此基础上,人们逐渐发展了对脸部的多种建模方法,创造了以语音及其情感为输入,相应生动自然的面部动画为输出的技术。为了使动画更加生动,面部表情与人脸动画的融合也被许多研究者纳入到考虑范围。
现有的语音驱动人脸动画的方法可粗略分为以下几类:基于声道信息[2]或发音音素[3]从音频和视频中提取口型特征的映射;利用基于参数[4]或生理[5]的脸部模型构建动画;利用脸部动作与表情向量融合[6]或由动作挑选相应情感[7]的情绪处理方法。
语音驱动的人脸动画流程图如图1所示。
开始
音视频数据
特征提取
音视频映射
剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。