可解释的人工智能:打开未来智能教育“黑箱”的钥匙

  • 打印
  • 收藏
收藏成功

众所周知,人工智能的精准和高效使其在很多领域的应用已经超出了人类自身所具备的计算和执行能力。随着技术逐步朝着自动感知、学习、决策和行动的自主系统方向发展,机器学习、深度学习等人工智能关键技术因缺少透明度和对结果的逻辑解释,导致人工智能应用中存在的“黑箱”与数据偏见、算法不公等问题逐渐显现。人工智能需要解释它是如何做出决策的,这样才能避免模型和算法的误用滥用,从而成为推动人工智能治理从原则到实践有效落地的有力工具和手段。(剩余1691字)

monitor