基于CLIP和多模态掩码提示学习的面部动作单元识别

  • 打印
  • 收藏
收藏成功


打开文本图片集

摘 要:随着情感分析需求的日益增长,面部动作单元(ActionUnit,AU)识别作为情感计算的基础任务备受关注。尽管深度神经网络在AU识别方面取得一定的进展,但是其依赖大规模、精确标注的数据集。然而,数据标注过程耗时、成本高且易出错,限制了AU识别性能。近年来,CLIP模型在下游任务中表现出优异的识别和泛化能力。(剩余220字)

monitor
客服机器人