融合音频内容、风格和情感特征的人脸动画生成方法

  • 打印
  • 收藏
收藏成功


打开文本图片集

摘 要:现有的音频驱动人脸动画技术主要注重唇部运动与音频的同步性,忽略了对人物面部表情或头部运动的再现能力。为此,提出了一种融合音频内容、风格和情感特征的高质量人脸动画生成方法(ACSEF)。首先,设计了情感动画模块(EAM),从音频中提取隐含的情感辅助特征来估计更加准确的面部情感标志位移,然后与语音内容和说话者风格动画的面部地标位移进行融合,提高landmarks(面部地标)预测的准确性和生动性。(剩余14696字)

目录
monitor